文 | 世界模型工厂
OpenAI最近开始涉足智能手机领域了。
据报道,国际知名分析师郭明錤透露,OpenAI正与联发科和高通联手开发手机芯片,立讯公司将成为独家系统集成制造商,并计划于2028年投入量产。
这一消息很容易让人联想到苹果公司的崛起历程:
OpenAI准备挑战iPhone的地位,暗示着一款革命性的AI手机即将面世。
但事实真的如此吗?
郭明錤同时也分享了一张自己设计的OpenAI概念手机图样:
图片中没有常见的应用图标和输入区域,屏幕更是尽可能地缩减了其存在感。
尽管外形像是一部传统手机,但每一个细节都似乎在否定传统的手机设计理念。
这款设备究竟是创新性的AI手机还是预示着后智能手机时代的来临?

AI与手机设计的冲突
称这款新设备为“AI手机”其实是一个矛盾的说法。
手机的核心功能是作为一个应用程序分发平台。
一直以来,用户解锁屏幕、打开应用并完成操作的过程几乎没有改变过。
这种模式的基础在于各个App之间的独立性。
每个应用程序就像一座孤岛,数据不相通,需要用户自己来处理信息的传输和整合。
相比之下,由大模型驱动的人工智能追求的是直接从意图到结果的转变。
用户只需简单地告诉系统“帮我在明天下午预订一张靠窗的上海机票”,就能立刻得到回应。
无需手动进入多个应用进行操作。
AI的有效交互必须打破应用程序之间的界限,直达底层数据和功能。
冲突就此出现了。
目前的操作系统,无论是iOS还是Android,都是为了限制应用而设计的。
而AI的第一步就是要突破这些限制。
这种矛盾不仅仅是通过在现有手机上添加更高级的功能可以解决的。
最近,OpenAI的CEO Sam Altman发布了一篇关于操作系统和用户界面未来的帖子:
“现在是时候认真思考设计方式了(包括互联网领域;应该有一个适用于人类和代理人的协议)”。
这至少表明,OpenAI内部也在考虑未来AI时代的入口形态问题。
那么,OpenAI这次要推出的产品究竟是什么呢?

AI时代杀死手机
要回答这个问题,首先要了解在AI时代硬件设备会如何进化。
电子产品的进步不仅仅是性能的提升,还体现在它们与人的关系上:
它们一直在向着更贴近人体的方向发展。
在1940年代,计算机需要一个专门房间、团队和冷却系统的大机柜。
用户必须穿正式服装才能使用它,并且距离很远。
1980年代,个人电脑将计算能力缩小到桌面大小。
屏幕离用户半米,键盘需要双手操作,但至少进入了用户的书房。
从1990年代开始,笔记本电脑进一步把设备折叠进一个小箱子,可以放在膝盖上。
iPhone的推出标志着屏幕第一次被塞进口袋里,随时可用。
这意味着从念头产生到操作执行的时间缩短到了两秒以内。
手机之所以成为最普及的计算终端,并不是因为它具有出色的显示屏,而是因为它更贴近用户的身体。
但两秒仍然是延迟。
两秒钟可能需要用户暂停手头的工作,腾出手来把设备拿出来放到视线范围内。
对于意图直接得到结果的目标来说,这样的延迟时间显得过长了。
理想的交互体验是在产生想法的同时启动操作,并即时收到反馈。
这意味着设备不再需要放在口袋里,而是要接近用户的视野边缘、耳道常驻区域甚至身体本身。
因此,手机不会是这个进化过程的终点。
从概念图来看,OpenAI显然意识到了这个问题。
设计中没有任何地方鼓励用户长时间盯着屏幕看。
图标和输入法区域都不见了踪影,取而代之的是任务清单和四个模块(Home、Actions、Memory、Inbox)。
它的意图很明确:减少用户对设备的关注时间。
这与手机制造商追求更大屏幕显示面积的目标背道而驰。
手机希望让用户多看,但OpenAI则希望他们少看甚至不看。
不妨说,与其称它为新手机,不如说是用手机的外壳来尝试终结传统手机的概念。
从商业角度来看,这更像是在上市前进行的一场概念展示,以确立市场地位。
实际销售情况反而不是最重要的问题。
下一代AI硬件形态
如果手机不再是AI时代的终极硬件设备,那么什么才是?
目前还没有明确的答案。
可能是眼镜、耳机、戒指、手表或者植入人体的设备。
显然下一代AI硬件不应该再以屏幕为中心了。
屏幕是智能手机时代的伟大创新之一,但它也限制了我们的想象力。
AI最重要的能力不是填充更多内容到屏幕上,而是理解人的意图并执行任务。
当机器开始理解用户的目标时,屏幕的重要性就会降低。它更像是确认和展示结果的工具而非任务入口本身。
因此,真正适合AI的新硬件应该是一个感知入口。
它需要能够听到你说什么、看到你看到的东西,并根据场景判断你的下一步行动,在必要时刻才将结果反馈给你。
从这个角度来看,眼镜、耳机等设备比传统手机更接近未来AI硬件的方向。
比如说,耳机适合语音交互,眼镜适合视觉和空间感知,手表适合快速确认身体状态,车适用于移动场景而家庭设备则适合环境感知。
从硬件尽可能靠近人体的发展路径来看,眼镜、耳机甚至未来的植入技术都比手机更接近未来AI的形态。
这也是为什么Meta在推广智能眼镜,亚马逊不断升级Alexa和Echo,Google重启了与眼镜和XR相关的项目,苹果则围绕Vision Pro、AirPods等产品寻找新的交互入口。
同样地,OpenAI自己也不仅仅局限于手机领域。据报道他们的硬件团队曾探索过智能音箱、耳机等多种形态的产品。
这也反映出各大厂商都在寻求智能手机之外的新型AI设备形式。
一旦屏幕不再是主要交互界面,基于图标的应用体系也将面临崩溃。
App帝国的消融
APP分发将从用户选择转为由AI调度决定。谁能在用户表达意图的那一秒被选中就成为关键。
这种逻辑的变化不仅会影响应用商店的分发机制,还会改变通知系统的优先级、支付和授权入口以及数据权限边界等多方面内容。
因此,OpenAI做手机不仅仅是硬件故事那么简单。
如果它只是造一台新手机,那么竞争对手就是苹果、三星、华为和小米。
但如果目的是让用户通过Agent来接触应用和服务的话,则意味着移动互联网的权力结构将会被重新分配。
在过去,拥有一个封闭的应用生态系统就能构建商业闭环。而在AI时代,谁能被Agent调用谁就有生意机会;反之可能就被遗忘。
所以说,OpenAI推出手机表面是硬件革新,实际上是争夺入口地位的尝试。
即使第一代产品不尽如人意,只要Agent这个方向得到认可,移动互联网的权力结构就会被重新定义。
苹果和谷歌依赖于应用生态系统的商业模式都会在这个趋势下面临挑战。
无论未来的AI设备长什么样,自然的交互方式都不会再围绕屏幕进行。那么下一个问题是:
用户将如何发出指令并接收结果?
答案似乎正在集中到一种双向结构上:语音/手势+Agent。
用语音表达意图,用手势快速确认,而代理负责处理任务流程。
AI硬件交互新范式
这种模式意味着前端脱离屏幕控制,后端则由AI完成实际操作。
如果这个框架成立,那么未来AI硬件的交互方式将被重新定义。
AI时代的设备或许不会是一个中心化的终端,而是围绕人体的一系列感知节点。
耳机听、眼镜看、手表感知身体状态,手机则负责身份验证、算力支持和支付确认功能,而Agent在这些节点之间传输任务流信息。
这不仅仅是一种科幻设想,更是交互逻辑的自然演变方向。
键盘适合输入详细数据,屏幕适合展示复杂内容,语音适合传达意图,手势适合快速确认操作,代理则负责处理过程中的各种事务。
这或许才是AI硬件真正的新范式。
耳机听,眼镜看,手表感知身体,手机负责身份、算力、支付和确认,Agent在它们背后贯穿任务流。
这不是科幻式的想象,而是交互逻辑的自然演进。
键盘适合输入精确信息,屏幕适合展示复杂结果,语音适合表达意图,手势适合快速确认,Agent适合处理过程。
这或许才是AI硬件真正的新范式。
