
Opera可以访问本地AI模型
据开发者称,Opera 已成为第一个提供本地人工智能模型访问的主要浏览器。支持来自大约 50 个模型系列的 150 多个本地 LLM 变体(大型语言模型)。本地人工智能模型补充了 Opera 的在线人工智能服务 Aria。通过集成本地LLM,用户可以使用生成的AI,而无需向服务器发送信息。
Opera 正在 Opera One 的开发人员流中测试一组新的本地法学硕士,作为其新的人工智能功能下降计划的一部分。这将使我们能够在更广泛的推出之前测试浏览器人工智能功能集的实验版本。从今天开始,Opera One Developer 用户将有明确的机会选择和试用模型。要测试模型,用户必须更新到最新版本的 Opera Developer。

Opera 支持超过 150 个本地 AI 模型。

支持的本地法学硕士包括:
- 梅塔骆驼
- 骆驼毛
- 来自谷歌的杰玛
- 米斯特拉尔 by 米斯特拉尔 AI
- 还有许多其他家庭

如果选择本地LLM,它将下载到您的计算机上。本地 LLM 每个变体需要 2 到 10 GB 的本地存储空间。下载后,本地 LLM 将取代 Opera 自己的 AI Aria,直到用户开始新的聊天或主动重新打开 Aria。单击此处在 Opera One Developer 中测试您本地的法学硕士。

