会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 AI对话模型已经可以在手机上本地运行?考验手机内存的时候到了… – 蓝点网!

AI对话模型已经可以在手机上本地运行?考验手机内存的时候到了… – 蓝点网

时间:2025-05-04 12:07:27 来源:风雨交加网 作者:探索 阅读:554次

早前蓝点网介绍了 MLC 团队推出的对话 WebLLM (MLC LLM),这个 AI 对话模型没有服务器支持,模型在网页上调用 WebGPU API 即使用你的已经运行本机 GPU 提供算力支持,一切数据都是可手考验离线的无需担心你的对话内容泄露。

现在该团队将 MLC LLM 移植到了手机上,机上还开发了 iOS Demo 应用,本地也就是手机说你可以在手机上运行大型语言模型,完全离线运行,内存不论是蓝点模型还是数据都在本地。

AI对话模型已经可以在手机上本地运行?对话考验手机内存的时候到了...

好消息是测试显示在 iPhone 14 Pro Max 上是可以正常运行的,速度略微有些慢但还是模型能接受的地步,坏消息是已经运行如果手机内存比较小的话会崩溃,因为模型运行的可手考验时候,模型数据会被塞到内存里,机上这会让手机内存瞬间被塞满。本地

在 iPhone 12 Pro 上测试就有些压力了,基本上说内存起步需要 6GB,这么来看安卓机可能更有优势,毕竟现在新的安卓机内存都非常大。

除了 iOS 版外,MLC 团队还推出了 Windows/Linux/Mac 的 CLI 版,即命令行版本,可以在终端里发起询问并获得答案,相对来说在 PC 上使用压力就小一些了,毕竟内存稍微大点。

等等… 我是不是还没提 GPU 问题?是的,内存并非关键,因为无论是 iPhone 还是安卓还是 PC 都必须支持 GPU 加速,手机上还好,在 PC 上用户可能需要更新驱动程序,例如 Vulkan 驱动程序。

有兴趣的用户可以试试这个 AI 模型,蓝点网测试感觉还可以,中文支持也挺不错的。iOS Demo 程序的话目前在 TF,限额 9000 人,满了就没法加入了。有 iOS 开发经验的开发者可以自行编译安装。

iOS Demo TF 版:https://testflight.apple.com/join/57zd7oxa

WebLLM (网页版):https://mlc.ai/web-llm/

Windows/Linux/Mac 需要使用 Conda 管理,具体请看:https://mlc.ai/mlc-llm/

(责任编辑:休闲)

相关内容
  • 《拳皇15》DLC角色麦卓和薇丝预告片公布今年12月同时上线
  • Saber下管:《战锤40K星际兵士2》将是本年最好动做游戏!
  • GT评比五大年夜潜进游戏品牌 看看哪个大年夜叔更鄙陋
  • 企鹅帝国出法动摇!盘面玄月游戏搜刮指数TOP10
  • 中国音数协第一副理事长张毅君:加强产业研究,构建产业生态,推动电竞产业高质量发展
  • 篮球顶峰大年夜做回回!《NBA Live 14》游仄易远星空专区上线
  • 国产量量也很赞!细数中国制制的十大年夜出色游戏
  • 《凡是人建仙传单机版》游戏音乐试听 小旭团队倾力挨制
推荐内容
  • 重磅开“演”!《蛋仔派对》首届蛋仔电影节隆重开幕,播映主题全公开
  • GamesCom 2013:PS3贬价 同时采办PS3/PS4游戏将有明隐劣惠
  • GamesCom 2013:育碧Xbox One体感游戏《搏斗之心(Fighter Within)》部分细节饱漏
  • 海中足游中国版免费治象:半面大年夜胆 半面无法
  • ​LOL冠军之夜庆典活动
  • IGN剪辑众次世代游戏预报 背着准CG进收!