人工智能 (AI) 已成为今年的热门话题,在 AI 的支持下,ChatGPT 等应用程序获得了广泛赞誉。这些应用程序依赖于大型语言模型 (LLM) 来支持。尽管苹果尚未在人工智能领域推出突破性功能,但最近的研究揭示了该公司在这一领域的大量努力。
据TechPowerup报道,Apple 研究人员开发了一种新颖的闪存开发技术,将 AI 模型数据存储在闪存芯片中。这项创新使内存有限的设备(如 iPhone)能够运行大型语言模型。大型语言模型需要大量的计算能力和资源,因此需要加速器和大量的内存容量。Apple 的新方法旨在应对这些挑战。

苹果的研究人员引入了两项关键技术:“窗口化”,人工智能模型重用部分处理的数据来减少内存读取,从而提高效率;以及“行列捆绑”,它可以更有效地对数据进行分组,从而加快闪存检索速度,从而加快处理速度。
苹果声称,这项技术使iPhone能够运行高达其内存容量两倍的AI模型。M1 Max 对大型语言模型的 CPU 推理速度可以提高 4-5 倍,GPU 可以提高 20-25 倍,大大扩展了适用性和可访问性。
相关文章
网友评论(共有 0 条评论)