为了增强隐私和处理效率,Apple推出了一系列开源大语言模型(LLM),称为OpenELM。这些模型经过独特设计,可直接在设备上运行,与传统上对基于云的计算的依赖不同。这种转变不仅有望通过本地处理数据来改善用户隐私,而且还可以提高人工智能应用程序的速度和响应能力。HuggingFaceHub上提供的OpenELM模型代表了人工智能领域的关键进步,特别是在人工智能如何无缝集成到日常技术使用中。

苹果发布了用于设备处理的新开源

要点

型号变体:OpenELM-270M、OpenELM-450M、OpenELM-1.1B、OpenELM-3B和指令调整版本

训练数据:RefinedWeb、去重PILE、RedPajama子集和Dolmav1.6

代币总数:约1.8万亿

可用性:HuggingFaceHub免费

技术:变压器模型中的分层缩放策略

精度提升:比之前的型号提高2.36%

参数效率:与类似模型相比,需要的预训练标记减少了2倍

OpenELM的推出标志着苹果公司典型的保密人工智能开发方式的显着背离。通过向公众免费提供这些模型,Apple旨在促进人工智能社区内的协作和创新。此举符合谷歌和微软等科技巨头发布开源人工智能工具以加速该领域研发的增长趋势。

OpenELM的技术优势

OpenELM在其变压器模型中使用复杂的逐层缩放策略,该策略将参数最佳地分配给每一层,从而提高准确性和效率。与OLMo等之前的模型相比,该方法的准确度显着提高了2.36%,同时需要的预训练标记显着减少。通过为AI社区提供各种规模(从270M到3B参数)的预训练和指令调整模型,OpenELM在AI技术的可访问性和适应性方面树立了新标准。

OpenELM采用的逐层缩放策略可以更有效地利用计算资源,从而使模型能够以更少的参数实现更高的性能。这种方法对于设备上的人工智能应用程序特别有益,因为与基于云的系统相比,这些应用程序的资源可能有限。通过优化跨层参数分配,OpenELM可以直接在用户设备上提供准确且响应灵敏的AI体验,而无需持续的云连接。

苹果

OpenELM模型是开源的,公众、研究人员和开发人员可以通过HuggingFaceHub免费使用。这种可访问性确保任何对人工智能开发感兴趣的人都可以在没有财务障碍的情况下使用这些先进模型。苹果的方法不仅使高水平的人工智能研究民主化,而且还鼓励各个领域的广泛采用和创新。

在HuggingFaceHub上免费提供OpenELM模型的决定是让AI更易于使用和更具包容性的重要一步。通过消除与访问最先进的相关的财务障碍,Apple正在帮助更广泛的研究人员、开发人员和爱好者在该领域进行探索和创新。此举有可能加快人工智能的发展步伐,并培育更加多元化和充满活力的人工智能社区。

赋能开放研究社区

通过将OpenELM作为开源发布,Apple旨在增强研究社区的能力,提供以前在其更保密的政策下无法获得的工具。这种开放性预计将刺激人工智能研究和开发的重大进步,为更值得信赖和更完善的人工智能应用奠定基础。此外,这些模型的开源性质允许对潜在风险、偏见和数据完整性进行更广泛的检查,这对于开发负责任的人工智能技术至关重要。

OpenELM的开源发布标志着Apple人工智能研发方式的重大转变。通过拥抱透明度和协作,苹果不仅为人工智能技术的进步做出了贡献,而且还促进了更加开放和包容的人工智能生态系统。此举可能会激励其他科技公司效仿,从而为人工智能带来更具协作性和创新性的未来。

人工智能的进一步探索

对于那些对设备上人工智能的潜力感兴趣的人来说,进一步探索神经网络优化、实时数据处理和人工智能驱动的用户界面改进等领域可能会非常有益。这些主题不仅扩展了围绕OpenELM的讨论,还深入探讨了AI在现代技术中的更广泛的影响和应用。

随着人工智能不断发展并融入我们生活的各个方面,考虑与这些技术相关的道德影响和潜在风险至关重要。OpenELM的开源性质为AI社区提供了一个机会来共同解决这些问题并为负责任的AI开发制定最佳实践。通过培育开放、透明的生态系统,苹果正在为未来做出贡献,让人工智能不仅更容易获得,而且更负责任和值得信赖。