,苹果公司在周一的 WWDC 2023 主题演讲中,除了发布了备受期待的 Mac Pro 和 Vision Pro 等新产品外,还展示了其在机器学习领域的最新进展。不过IT之家注意到,与微软和谷歌等竞争对手大力宣传生成式人工智能不同,苹果公司在演讲中并没有提及“人工智能”这个词,而是更多地使用了“机器学习”和“ML”这样的术语。
例如,在 iOS 17 的演示中,软件工程高级副总裁 Craig Federighi 介绍了自动纠错和语音识别的改进:
自动纠错是由设备上的机器学习驱动的,多年来,我们不断地提升这些模型。键盘现在利用了一种 transformer 语言模型,这是目前最先进的词预测技术,使得自动纠错比以往更加准确。而且,借助 Apple Silicon 芯片的强大性能,iPhone 可以在你每次按下一个键时运行这个模型。
值得注意的是,苹果公司在其主题演讲中提到了人工智能领域的一个术语“transformer”。该公司具体谈到了一种“transformer 语言模型”,这意味着其人工智能模型使用了 transformer 架构,这是近期许多生成式人工智能所使用的底层技术,例如 DALL-E 图像生成器和 ChatGPT 聊天机器人。transformer 模型是一种用于自然语言处理(NLP)的神经网络架构,采用了自注意力机制,使其能够优先处理序列中不同的单词或元素。其能够并行地处理输入,从而显著提高了效率,并在 NLP 任务中取得了突破性的进展,如翻译、摘要和问答。
据苹果公司介绍,iOS 17 中的新 transformer 模型可以实现句级别的自动纠错,当你按下空格键时,它可以完成一个单词或整个句子。还会根据你的写作风格进行学习,从而指导其建议。苹果公司还表示,语音识别“采用了一种基于 transformer 的语音识别模型,利用神经引擎使语音识别更加准确”。
在主题演讲中,苹果公司还多次提到了“机器学习”,比如在描述新 iPad 锁屏功能;iPadOS PDF 功能(“感谢新的机器学习模型,iPadOS 可以识别 PDF 中的字段,让你可以使用自动填充功能快速填写信息,比如从你的联系人中获取的姓名、地址和电子邮件等。”);AirPods 自适应音频功能(“通过个性化音量,我们使用机器学习来了解你的收听偏好随时间的变化”);以及 Apple Watch 小部件功能 Smart Stack(“Smart Stack 使用机器学习在你需要的时候向你展示相关信息”)。
苹果公司还推出了一款叫做 Journal 的新应用,可利用设备端机器学习提供个性化建议,为用户带来日记灵感。这些建议根据用户近期活动智能生成,包括照片、人物、地点、体能训练等,帮助用户更轻松地开始记录。
最后,在演示 Vision Pro 头显时,该公司透露,用户眼睛上的动态图像是由扫描你的脸部创建的一个特殊的 3D 头像 —— 当然,这也是机器学习的功劳。
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。