在最近的一篇研究论文中,苹果的人工智能团队描述了一种可以显著提升Siri智能的模型,而且他们认为这个名为ReALM的模型在测试中优于OpenAI的知名语言模型GPT-4.0。
ReALM的特别之处在于,它可以同时理解用户屏幕上的内容和正在进行的操作。
论文的结论之一是,ReALM 即使拥有比 GPT-4 少得多的参数,也能在性能上与之匹敌,并且在处理特定领域的用户指令时表现更加出色,这使得 ReALM 成为一种可以在设备端运行的、实用高效的实体识别系统。
对于苹果而言,如何在不影响性能的情况下将这项技术应用于设备似乎是关键所在,随着WWDC 2024开发者大会即将于6月10日召开,外界普遍期待苹果将在iOS18 等新系统中展示更多的人工智能技术成果。
此外,根据美国商标和专利局(USPTO)近日公示的清单,苹果获得了一项关于 Vision Pro 的新专利,通过增强“专注模式”,减少佩戴者的分心情况。苹果 Vision Pro 头显目前内置手动激活的“专注模式”,而最新专利名称为《在扩展现实环境中减少分心的操作模式》,希望更加灵活、动态地调整进入“专注的模式”,帮助佩戴者在长时间使用头显时能提高注意力。