苹果自M系列芯片推出以来,不断夯实端侧AI能力,其内置的神经处理单元(NPU)为本地模型运行提供了硬件基础,而oMLX作为Apple Silicon生态下的核心AI框架,是打通硬件与应用层的关键桥梁。近期,oMLX框架发布0.3.9.dev2版本,标志着苹果端侧AI生态迎来重要升级,进一步缩小了与云端大模型的体验差距。
该版本的核心更新在于深度集成Google DeepMind的Gemma4模型相关技术,包括MTP视觉路径、DFlash引擎及ParoQuant量化技术,同时新增一键Copilot功能。MTP视觉路径专门针对图文多模态任务优化,能实现图像特征提取与文本理解的协同处理,进一步提升Apple Silicon芯片上NPU、CPU与GPU的协同工作效率;DFlash引擎则借助苹果统一内存架构的独特优势,减少数据在不同硬件间的传输延迟,从而加快模型推理速度;ParoQuant量化技术则能将模型参数从高精度浮点型转换为低精度整数型,在控制精度损失的同时,让内存占用降低约40%,推理速度提升约30%。一键Copilot功能则简化了用户操作流程,无需编写代码,通过直观界面就能完成图文生成、内容摘要等任务。
这些技术升级让Apple Silicon设备上的本地AI模型,在图文多模态处理速度上已能接近云端大模型的水平,同时端侧处理的隐私优势也更加突出:数据全程不离开设备,有效避免了敏感信息上传云端的风险。易用性的提升也将吸引更多开发者和普通用户尝试本地AI应用,进一步巩固苹果在端侧AI领域的领先地位。
从行业趋势来看,端侧AI已成为2024年科技竞争的核心赛道,各大厂商都在发力强化本地模型能力。竞争对手方面,谷歌近期在Pixel 8系列上推出了端侧Gemini Nano 2模型,高通骁龙8 Gen 3芯片也集成了更强的AI引擎,苹果此次oMLX框架更新正是应对行业竞争的关键动作,有助于进一步拉开与安卓阵营在端侧AI体验上的差距。






快报