Sigma推出注重隐私的AI原生浏览器,支持本地LLM

Sigma Browser OÜ 周五宣布推出其注重隐私的网络浏览器,该浏览器采用本地人工智能模型,不会将数据发送到云端。

众多浏览器公司纷纷加入人工智能(AI)的行列,将主流AI模型融入到用户体验中。主流浏览器原生集成的AI体验包括谷歌Chrome浏览器中的Gemini,以及Mozilla Firefox浏览器中的AI模型集成。此外,AI模型开发商也推出了各自的专用AI原生浏览器,例如Perplexity AI的Comet和OpenAI Group PBC的Atlas 。

所有这些浏览器都会将用户的查询和问题发送到基于云的人工智能系统,以提供答案和生成内容。

相比之下,Sigma 公司的 Eclipse 嵌入了一个本地大型语言模型,该模型可以离线运行,并将所有用户数据、问题和聊天记录完全保存在本地。该公司认为,这种方法旨在消除可能通过第三方服务篡改答案或泄露用户信息的隐藏行为或后门。

1

Sigma联合创始人尼克·特伦克勒表示:“人工智能已经变得非常强大,但同时也变得高度集中且成本高昂。我们认为,用户不应该为了使用先进的人工智能而牺牲隐私或支付持续的云费用。”

该公司表示,Eclipse内置的LLM未经过滤,不包含任何意识形态或内容限制,这意味着它不会对用户反馈造成不当偏见。这一设计选择符合 Sigma的初衷,即让用户完全掌控其AI交互体验,不受任何话题或视角的限制。

此次更新还包括本地 PDF 处理功能,允许用户直接在计算机上分析和处理文档。

Sigma 的 Eclipse 并非首个支持本地 LLM 的浏览器。早在 2024 年,Brave Software Inc. 的浏览器就为其 Leo AI 助手添加了“自带模型”功能。该功能支持与本地运行的 LLM 进行简单集成;不过,由于需要安装 Ollama 或其他本地 AI 推理提供程序,因此集成过程可能略微有些技术性。

为了高效运行本地模型,尤其是那些参数规模约为70亿的模型,硬件通常至少需要16到32GB的内存。此外,还需要较新的图形处理器,例如英伟达公司的入门级RTX 3060,但建议用户至少使用RTX 4090。运行更大规模的AI模型则需要更大的内存和更高性能的GPU。

为用户启用本地优先的LLM(语言学习管理)功能,而无需用户自行配置,可以提升浏览器的吸引力。该公司表示,此次发布标志着朝着更加透明的用户控制型人工智能迈出了重要一步,使用户能够在 保持性能和功能的同时,维护隐私和访问权限。

来自 SiliconANGLE 联合创始人 John Furrier 的信息:

加入theCUBE社区,支持我们保持内容开放和免费的使命。加入theCUBE校友信托网络,与科技领袖们交流互动、分享真知灼见、共创机遇。

theCUBE 视频拥有超过 1500 万观众,推动着人工智能、云计算、网络安全等领域的讨论。

超过 11.4 万名 theCUBE 校友— 通过独特的、基于信任的网络,与超过 11,400 位塑造未来的科技和商业领袖建立联系。

关于 SiliconANGLE Media

SiliconANGLE Media 是公认的数字媒体创新领导者,致力于融合突破性技术、战略洞察和实时受众互动。作为SiliconANGLE、theCUBE Network、theCUBE Research、CUBE365、theCUBE AI和 theCUBE SuperStudios 的母公司,SiliconANGLE Media 在硅谷和纽约证券交易所均设有旗舰办公地点,业务涵盖媒体、技术和人工智能的交叉领域。

SiliconANGLE Media 由科技远见家 John Furrier 和 Dave Vellante 创立,构建了一个充满活力的行业领先数字媒体品牌生态系统,覆盖超过 1500 万精英科技专业人士。我们全新自主研发的 theCUBE AI 视频云平台在受众互动方面取得了突破性进展,利用 theCUBEai.com 神经网络帮助科技公司做出数据驱动的决策,并始终走在行业对话的前沿。

相关内容