您的位置:首页 >动态 > 综合精选 >

苹果新的人工智能模型暗示人工智能将如何进入iPhone

导读 苹果一直对其生成式人工智能计划保持沉默,但随着今天新人工智能模型的发布,该公司的近期目标似乎坚定地落在让人工智能在苹果设备上本地运...

苹果一直对其生成式人工智能计划保持沉默,但随着今天新人工智能模型的发布,该公司的近期目标似乎坚定地落在“让人工智能在苹果设备上本地运行”领域。

苹果公司的研究人员于周三发布了OpenELM,这是HuggingFace模型库上的一系列四种非常小的语言模型。苹果在其HuggingFace模型页面上表示,OpenELM(代表“开源高效语言模型”)在诸如电子邮件编写等文本相关任务上执行得非常高效。这些模型是开源的,可供开发人员使用。

它有四种规模:2.7亿个参数;4.5亿个参数;11亿个参数;和30亿个参数。参数是指模型在决策过程中从训练数据集中理解了多少变量。例如,微软最近发布的Phi-3模型触底于38亿个参数,而谷歌的Gemma提供了20亿个参数版本。小型模型的运行成本更低,并且经过优化可以在手机和笔记本电脑等设备上运行。

苹果首席执行官蒂姆·库克(TimCook)开玩笑说,生成式人工智能功能将出现在该公司的设备中,并在二月份表示,苹果正在该领域花费“大量时间和精力”。然而,苹果尚未透露其人工智能应用的具体细节。

该公司此前曾发布过其他人工智能模型,但并未像竞争对手那样发布任何用于商业用途的人工智能基础模型。

去年12月,Apple推出了MLX,这是一种机器学习框架,可以让AI模型更轻松地在AppleSilicon上更好地运行。它还发布了一个名为MGIE的图像编辑模型,可以让人们根据提示修复照片。另一种模型Ferret-UI可用于导航智能手机。据传苹果正在开发一款类似于GitHub的Copilot的代码完成工具。

然而,尽管苹果发布了所有模型,但据报道该公司仍联系了谷歌和OpenAI,将他们的模型引入苹果产品。

免责声明:本文由用户上传,如有侵权请联系删除!

最新文章