Ollama新支持:提升苹果Mac性能,点燃本地模型探索热情

张开发
2026/4/11 18:23:26 15 分钟阅读

分享文章

Ollama新支持:提升苹果Mac性能,点燃本地模型探索热情
【导语Ollama运行时系统支持苹果MLX框架提升缓存性能并支持NVFP4格式有望提升苹果硅芯片Mac电脑性能。OpenClaw受关注人们对本地模型探索热情高涨新支持以预览版提供。】Ollama新支持提升苹果Mac性能Ollama作为可在本地计算机运行大语言模型的运行时系统现已支持苹果用于机器学习的开源MLX框架。同时它宣称提升了缓存性能还支持英伟达用于模型压缩的NVFP4格式这让某些模型的内存使用效率大幅提高综合作用下有望显著提升搭载苹果硅芯片M1及后续型号的Mac电脑性能。本地模型探索热情高涨近期OpenClaw在GitHub上星标数迅速突破30万其开展的Moltbook等实验成为新闻焦点在中国引发广泛关注促使许多人尝试在自己设备上运行模型。并且开发者对Claude Code或ChatGPT Codex等工具的使用速率限制和高级订阅高昂费用不满对本地编码模型的探索热情日益高涨。新支持现状与硬件要求这项新支持目前以预览版Ollama 0.19形式提供目前仅支持阿里巴巴Qwen3.5的350亿参数版本。按照普通用户标准硬件要求较高Ollama公告显示用户不仅需要配备苹果硅芯片的Mac电脑还至少需要32GB的内存。编辑观点Ollama的新支持为苹果Mac带来性能提升契机本地模型的火热反映出市场需求。虽目前有一定局限性但未来有望推动本地模型更广泛应用。

更多文章