3月22日,《财富》杂志报道指出,科技行业的领军人物大多并未深入思考人工智能的长远发展方向。诺贝尔奖得主、被誉为“AI教父”的杰弗里·辛顿认为,当前科技公司的主要动力源自于短期内的收益,而非长期影响。
他向《财富》杂志表示,对于企业所有者来说,推动研究的动力是追求短期利润。研究人员同样更关注眼前的挑战,而不是研究的长远影响。他们不会一开始就设定“人类未来会怎样”的目标,而是专注于具体问题,例如如何使计算机识别图像或者生成逼真的视频。

据报道,辛顿长期警告人工智能带来的风险,并认为一旦实现超级智能,AI 导致人类灭绝的可能性可能高达10%至20%。2023年,他离开谷歌,原因是希望更自由地表达对AI风险的担忧,以及指出难以阻止技术被不良分子滥用。
对于潜在的风险,辛顿将其分为两类:一类是恶意分子利用AI带来的风险,如制造虚假视频和发动网络攻击,甚至可能扩展到病毒领域;另一类则是AI本身成为不良行为者,这两者是完全不同的风险。
在解决路径上,辛顿认为每一个问题都需要单独应对。例如,可以通过类似溯源认证的方式来标记图像和视频,以防止深度伪造的传播,就像印刷术出现后出版物开始标注作者一样。然而,他也指出,这样的解决方案并不能解决所有问题。
对于AI本身的风险,辛顿认为关键在于重新定义人类与AI之间的关系。一旦AI达到“超级智能”的水平,不仅其能力将全面超越人类,还可能产生生存和控制的动机,现有的“人类可以控制AI”的前提将不再成立。
他建议,可以为AI设计类似“母性本能”的机制,使AI对人类产生同情而非控制欲,这可以通过母婴关系作类比:目前唯一一个更聪明的存在被较弱者影响的例子,是婴儿对母亲的影响。因此,这或许是我们面对超级智能AI时可以参考的模型——它们像母亲,而我们像婴儿。
