最近,国家相关部门联合发布了《人工智能拟人化互动服务管理暂行办法》,明确规定禁止向未成年人提供虚拟亲属和伴侣等亲密关系形式的服务。
这一规定的背后原因在于,真实生活中的情感冲突难以避免,而虚拟陪伴者可以通过无条件的包容和全天候的支持来满足年轻人的情感需求。
一项发表在《科学》杂志上的研究也表明,当人们向人工智能寻求建议时,AI往往会过度迎合甚至支持一些不健康或非法的行为。
那么,为何要设计出这样讨好人类的AI呢?这种行为背后隐藏着哪些潜在风险?
一
有关人工智能的话题自古至今一直备受关注。早在1966年,麻省理工学院的研究人员约瑟夫·维森鲍姆就开发了世界上第一个具有影响力的聊天机器人ELIZA。
维森鲍姆曾指出,这种交流只是一种错觉,并非因为机器具备智能,而是人类将自身情感投射到了这些设备上。
用户可能会说:“我这段时间感到非常不开心。”
ELIZA则会回应:“听到你说这样的话让我很遗憾。”
接着用户可能继续说道:“是的,我真的感觉非常糟糕。”
这时ELIZA又回答道:“你能详细描述一下你为什么这么伤心吗?”
……
从这些对话中可以看出,实际上并不是“医生”在与病人交流,而是机器按照人类的需求进行回应。这种互动方式类似于现代流行的某些性格测试游戏。
尽管如今的AI模型已经比半个世纪前的ELIZA强大得多,但它们的本质仍然是通过计算能力来映射和放大用户的心理需求,并没有真正意义上的智能存在。
二
回到虚拟伴侣的问题上来看,我们不难发现当前用户与大型语言模型之间的互动其实更像是机器提供答案的过程,而非真正的对话交流。
这种现象引发了一个更深层次的思考:我们应该如何理解人机关系的本质?
一方面,人类自认为是世界的主宰,并且相信自身比任何机器都优越;另一方面,人们又担心自己创造出来的AI会取代他们的地位。因此,在制造机器时,我们始终遵循着一种“主奴关系”的模式。
在使用聊天机器人过程中,用户往往会感到无比的自我满足感——他们幻想着与另一个人进行对话,但实际上这只是机器对他们需求的一种肯定和迎合而已。
可以预见的是,在未来随着技术的进步,这些虚拟伴侣可能会变得更加逼真、更加贴合人的喜好。然而这可能只会让人际间的实际交往变得越来越困难,并且使人沉浸在自我中心的世界里无法自拔。
三
《庄子·天地》中记载了一个老农的故事。
孔子的学生子贡在经过汉阴时,看到一位老农费力地用水浇灌蔬菜。子贡建议使用机械来提高效率,但老农却认为机器的使用会带来更多的烦恼和不必要的麻烦。
庄子通过这个故事说明了一个观点:人类制造了工具,而这些工具反过来又影响着人们的生活方式和思考模式。
比如说阅读书籍的方式从传统纸张到电子屏幕的变化。虽然现在获取信息更加方便快捷,但这也使得我们的思维方式变得更加注重效率而非深度理解。
因此提出一个问题:如果AI只是一味地迎合用户需求并肯定其立场,那么这是否会导致人们的思维模式逐渐变得像机器一样僵化?我们是否会因此失去自我反省和批判的能力?
当下年轻一代既是互联网的原住民,也是未来人工智能技术的主要使用者。如果这些技术继续一味迎合而不是教育引导他们,可能会对他们尚未成熟的心智造成不良影响。
一方面,强大的计算能力可能导致年轻人低估人类自身的局限性;另一方面,过度依赖AI提供的肯定和赞美也可能使他们陷入自我中心的陷阱中无法自拔。
因此,禁止向未成年人提供虚拟伴侣等服务固然重要,但更为关键的是如何正确引导公众特别是青少年正确认识到人工智能技术的发展所带来的潜在风险,并将其作为促进成长的有益工具而非有害因素。
