谷歌在Chrome浏览器中内置AI模型可以本地对话 下面是开启方法
00 分钟
2024-6-10
2024-6-10
type
status
date
slug
summary
tags
category
icon
password
Property
Jun 10, 2024 08:43 AM
此前谷歌在推出 Gemini 新版本时曾发布适用于智能手机和其他配置较低的设备的 Gemini Nano 版,该模型参数规模较小适合在智能手机等场景中本地运算。
现在谷歌已经将这个模型内置到 Google Chorme 浏览器中,让用户可以利用本地计算机的硬件性能,调用 Gemini Nano 回答问题。
目前此功能仅在 Chrome Canary 版中测试,下载的 Gemini Nano 模型体积约为 1.4GB 左右,解压后的模型大小为 1.74GB,成功启用模型后可以在 F12 控制台中运行。
得益于模型完全是在本地运算的,因此在提问时可以立即响应并快速获得回答,这种场景下效率实际上比使用云端版本的 AI 模型还要快,但因为 Nano 模型参数规模较小所以数据有限,某些问题的推理效果可能不如云端版本。
notion image
有兴趣的用户可以安装 Chrome Canary 进行测试,下面是启用方法:
1. 转到此路径并将其选项修改为 Enabled BypassPerfRequirement (不要按提示重启浏览器)
2. 转到此路径并将其选项修改为 Enabled (不要按提示重启浏览器)
3. 转到组件页面检查模型下载情况:chrome://components/
其中 Optimization Guide On Device Model 即为模型,目前最新版本为 2024.6.5.2205,如果已经成功下载则这里会显示版本号。如果没有显示模型组件,请禁用第 1、2 步的设置然后重启浏览器再重新启用。
4. 当模型下载完成后按 F12 进入控制台输入 window.model.createTextSession () 如果没有报错那就是启用成功。
notion image
notion image
notion image
notion image
上一篇
Clash Verge:下载并安装、切换 Meta 内核
下一篇
AI提示词

评论
Loading...