财经新闻网消息:
你的口袋里有Apple GPT吗? 这可能会更快成为现实。
苹果人工智能(AI)研究人员最近在预印本网站 arXiv 上发表了一篇论文,其中提到了一种创新的“闪存利用”技术,可以在内存有限的苹果设备上部署大型语言模型(LLM)。 ),这几乎是一个重大突破。
内存限制
基于LLM的聊天机器人(比如等等)非常依赖数据和内存。 它们同时需要处理的数据量非常大,并且往往需要大量的内存来运行。
因此,运行LLM对于DRAM(一般指内存)容量有限的设备来说是一个挑战。
通常,计算数据标准的方法是将闪存中的数据加载到DRAM中,然后在DRAM中进行数据推理。
高性能DRAM可以将数据处理速度提高数百万倍。 但缺点在于容量。 在 DRAM 上运行严重限制了可以运行的最大模型大小。
为了解决这个问题,苹果研究人员开发了一项新技术,使用更大容量的闪存(flash)来存储人工智能模型的数据,然后在需要时将数据传输到 DRAM 内存中进行处理。
将AI存储在闪存上
在一篇题为“闪存中的 LLM:有限内存的高效大型语言模型推理”的新研究论文中,作者指出,移动设备中的闪存比传统上用于运行 LLM 的内存更丰富。
这种方法巧妙地绕过了容量限制。 论文提出了两项关键技术来最小化数据传输并最大化闪存处理能力:
一种叫做“()”技术,相当于一种回收方法。 AI模型不需要每次都加载新数据,而是重用一些已经处理过的数据。 这减少了不断获取内存的需要,使过程更快、更流畅。
第二种称为“行列捆绑(Row-)”技术。 该技术可以更快地从闪存中读取数据,通过更高效地对数据进行分组,即根据闪存的数据特性制定访问数据块的顺序,从而加速人工智能理解和生成语言的能力。
根据该论文,这些方法的结合使人工智能模型能够以两倍的可用内存容量运行。 这意味着,在该方法下,与传统加载方法相比,CPU中的推理速度提升了4-5倍,GPU中的推理速度提升了惊人的20-25倍。
该论文的作者写道:“这一突破对于在资源有限的环境中部署高级法学硕士尤其重要,从而扩大了其适用性和可访问性。”
苹果的人工智能战略
人工智能效率的突破为未来开启了新的可能性,例如更先进的 Siri 功能、实时语言翻译、复杂的人工智能驱动摄影和增强现实功能。
论文中的新技术还为在设备上运行复杂的人工智能助手和聊天机器人奠定了基础,据说苹果已经在开发这些技术。
苹果在生成人工智能方面的工作最终可能会整合到其语音助手 Siri 中。 苹果在二月份的人工智能峰会上向员工介绍了其在大规模语言模型方面的工作。 据此前媒体报道,苹果的目标是推出与人工智能深度融合的智能版Siri。
还有传言称,苹果计划在尽可能多的苹果应用程序中添加人工智能。
此外,有消息称,苹果还正在开发自己的生成式人工智能模型“Ajax”,该模型运行在 2000 亿个参数上,以便与 GPT-4 模型竞争。
Ajax 在内部被称为“Apple GPT”,旨在统一整个 Apple 的机器学习开发,强调了 Apple 将人工智能更深入地集成到 Apple 生态系统中的更广泛战略。
根据最新的报告,Ajax 被认为比早期的 3.5 版本更强大。 然而,2023 年 9 月推出的新型号 GPT-4 可能已经超越了 Ajax 的能力。
果链分析师Jeff Pu曾指出,苹果将在2024年底左右在Apple和iPad上推出某种生成式人工智能功能,届时iOS 18将包含该功能。 Pu还表示,苹果将在2023年建造数百台人工智能服务器,并在2024年建造更多。
免责声明 ① 本网所刊登文章均来自网络转载;文章观点不代表本网立场,其真实性由作者或稿源方负责 ② 如果您对稿件和图片等有版权及其他争议,请及时与我们联系,我们将核实情况后进行相关删除 ③ 联系邮箱:215858170@qq.com