
《极限审判》
在探讨人工智能(AI)的影响时,我们不仅要关注技术本身的发展趋势,还要审视不同人群如何根据自己的社会位置来解读和应对这一新兴力量。这种视角揭示了人们对AI的态度在很大程度上是由其个人或集体利益驱动的。
当人们谈论对AI的看法时,实际上是在讨论它对自己生活和社会的影响。例如,一些人可能乐观地看待AI带来的便利与效率提升,而另一些人则担忧它会取代工作岗位,威胁到自己的生计和价值感。
在日本,漫画行业就体现了这种分化:大型出版社与创作者协会担心AI技术侵犯版权,尤其是那些拥有大量知名作品的公司。然而,不少个体艺术家却在利用AI工具提高创作效率或探索新的艺术形式。
01.
类似地,在中国,年轻人尽管频繁使用AI辅助学习和工作,但其中不少人也表示出明显的焦虑情绪。这反映出他们对技术进步可能带来的潜在威胁感到不安,担心自己未来的职业发展会受到影响。
这种矛盾的现象背后隐藏着一个共同点:无论是在漫画家群体内部还是年轻一代之间,人们对于AI的态度差异往往源于它与自身利益的直接关联程度不同。有些人将其视为扩展能力的手段,而另一些则视其为威胁或挑战。
当我们分析有关人工智能的不同观点时,必须注意到这些看法并非孤立存在,而是紧密联系着各自的社会背景和利益诉求。例如,在欧美地区出现的一些反对AI运动中,年轻一代成了主要力量,他们更多地关注技术进步背后的社会公平问题而非单纯的技术恐惧本身。
随着时间推移,关于AI的讨论逐渐分为两个极端:一方面是对超级智能即将来临及其带来积极变革可能性充满期待;另一方面则是对这种未来可能引发灾难性后果表达了深切忧虑。然而两者却共享了一个核心假设——即不久将来某一天人类将面对前所未有的挑战。
值得注意的是,围绕AI未来的激烈辩论并非仅仅由普通民众推动,而主要是受到特定资金网络支持下展开的学术研究和公共讨论所驱动。这些资本雄厚的投资者既资助了强调超级智能潜在风险的研究项目,也支持了一些乐观地预测其革命性影响的工作。
在全球范围内,并非所有人都将未来五到十年内可能出现的“超级智能”作为首要关注点;对于许多国家而言,如何应对当前的实际挑战才是更紧迫的问题。比如在欧洲,《AI法案》更多强调的是基本权利保护框架下的个人数据安全问题;而在亚洲地区,则更侧重于如何利用现有技术改善公共服务和治理能力。
通过上述分析可以看出,“讨论AI”本身就是一个充满复杂性和多重维度的社会现象,它不仅仅是对一种新技术的简单评价或预测,而是深刻地映射出不同社会群体之间错综复杂的利益关系与价值观念。
最近对AI的研究非常多,从其他数据中可以找到社会位置的端倪。毕马威联合墨尔本大学2025年对47国48340人的调研里,66%的人经常使用AI,83%相信AI会带来多种益处,这里面一个关键是经济预期。印尼91%的受访者认为,2025年会比2024年更好,美国下滑到65%,日本仅有39%。这种宏观经济乐观本身也与AI乐观高度相关——对未来抱期待的人更容易把新技术读作机遇,对未来感到疲惫的人更容易把新技术读作威胁。
这只是一个开始,当然对AI的判断与个人的AI体验有直接关系。但"位置判断"能证明一件事,对AI判断的起点并不中性,起点的分布值得被分析。每个人是带着自己的政治经济背景来看待AI的。
02.
东亚的AI乐观和矛盾
如果仅考虑发达国家和发展中国家的差异,韩国日本也应该被归入欧美的一端,经济忧虑,高端服务业替代。但是,现实并非如此——皮尤2025年的调查里,韩国"担忧AI"的人只有16%,是25个被调国家中最低的;日本对AI的期待度有46%,虽然不算高,但明显高于加拿大40%、美国39%、荷兰36%。
可能除了经济发达程度外,更细节的社会特征也是重要的,例如人口和就业:日本的老龄化和劳动力短缺问题愈发严重,日本青年失业率此刻处于30年最低点;日本银行Tankan调查的劳动力缺口指数落在-35,接近30年最低。简单说,日本眼下的劳动力市场问题是缺人,不是多人。
韩国的人口轨迹是日本的加速版——2023年总和生育率0.7,全球最低;2022年,韩国65岁以上人口占比17.5%,这个比例预计2040年会提升到33%。一个劳动力以每年1%速度萎缩的经济体,对"AI替代劳动"这个威胁叙事的反应,可能恰好相反,因为AI是这些国家的机遇。
这不是简单推测,而是实际落实的政策。日本AI推进法于2025年9月1日全面施行,这是日本首部AI专门法;同年10月21日高市早苗内阁就任,立即把AI和先端机器人列为6大战略重点支援领域;12月23日内阁发布《人工智能基本计划》,副题"让可信AI推动日本再起",目标是引入1兆日元民间投资。这不是"回应AI挑战"的防御姿态,是"把AI当成人口问题解决"的主动姿态。
2024年12月26日,韩国国会以260对1的票数通过(3票弃权),2026年1月22日施行《关于人工智能发展和构建信赖基础的基本法》(即《AI基本法》)。韩国科学技术情报通信部2025年11月立法预告施行令时明确说,"促进为主、必要最小规制"。与欧盟AI法案那种"先设红线"的逻辑相反,韩国的立法把AI框架成一个需要"尽快铺开"的产业机会。
日本公众对AI的个体认知是滞后的。易普索的亚太调查里日本自评"了解AI"的人只有41%,在多个国家中最低。国际货币基金组织2025年9月的一份工作论文也指出,AI填补日本劳动力缺口的作用受限——老龄劳动力的技能迁移难度大,AI对低技能服务业的填补能力也不如预期。然而,这些批评有效的是技术层面,不推翻日本的战略判断:经济合作与发展组织2025年11月的报告也证实,日本企业内部的AI失业报告显著少于其他国家。
接下来可以转向中国,和日本公众不同,中国公众对AI非常了解。澎湃新闻对齐Lab2025年1月到3月做的调查里,95.6%的受访者自评"了解AI",14.3%自评"非常了解",这个比例是2024年同一调查的两倍多。
毕马威与墨尔本大学2025年的全球调研显示,中国职场AI应用率93%,全球均值58%;64%的人完成过AI素养培训,全球均值47%;69%调查者明确知悉所在企业的AI使用政策,全球均值40%。腾讯研究院2025年9月对3570名成年人的调查补足了这幅图景,绝大多数受访者每天使用生成式AI,文本处理72%是首要用途。
然而,同一份澎湃调查里,59%的人担心AI会替代自己的工作,71.3%的受访者担心AI被用于电信诈骗、隐私窃取、换脸视频,63.6%担心虚假信息传播,48.8%对AI在医疗诊断中的应用感到不安。中国社会对AI的情绪是三高——高乐观率、高熟练度与高担忧率并存(不过这份报告有没有最后修饰预设结论值得怀疑)。
可以把这种现象命名为"熟练麻木"——对一项技术越熟悉越容易陷入无力感而非乐观。澎湃报告的小标题就是这种心态的精准命名:"怕AI不行,又怕AI太行""越了解AI,人越'麻'了"。
为什么熟练不能缓解反而放大焦虑?从OpenClaw的绝对非理性热潮中可知一二。在内卷的大环境中,公众对AI有一种焦虑性的FOMO心态(全称Fear of Missing Out),这种心态是指大家生怕自己落后而被社会抛下。其中一个基本假设是,AI很火,而我可能已经落后了,很多人已经把AI用得飞起,只有我还在把AI当作搜索引擎和文本生成。
AI仿佛是一套屠龙秘术,而真正的秘密早就被他人洞察。说起来,大多数人对自己与AI的关系是消极和无助的。这种每日被塑形的心态进一步被制度化为责任归因。同一份澎湃调查里,34.6%的受访者认为AI引发的社会问题主要责任在"研发AI大模型的公司",31.8%在政府,只有9.5%在使用AI的个人。当三分之二的人把责任推给非个人位置,说明他们对AI的焦虑不是"我用得不够好",是"这件事本身不是我能管的"。
这已经是社会相对精英人群的心态,澎湃的1821份样本和腾讯研究院的3570份样本都偏向受过高等教育的都市人群。非城市白领人群对AI的观点不得而知。不过这依然是很大范围的社会洞察,这个问题值得进一步深入。
04.
创作者与GenZ的内部裂痕
如果"熟练麻木"是中国AI心态的整体轮廓。在这个轮廓里还可以进一步分析——不同职业、不同年龄群内,对AI的反应也在分化。
2025年10月31日,讲谈社、小学馆、集英社、白泉社、秋田书店、新潮社、芳文社等17家出版社,联同日本动画协会和日本漫画家协会(总会员4013名),发表《生成AI时代创作与权利共同声明》,直指OpenAI的Sora2采用"未声明opt-out即默认纳入学习"的机制违背了194国加盟的世界知识产权组织著作权条约原则。同日,集英社单独发一份语言更重的声明——"心血浇注的作家尊严被踩踏,多数人的权利被侵害,这样的技术进步不应被接受"。
被吞食的是《海贼王》《龙珠》《火影忍者》《宝可梦》这批已经全球变现的资产——集英社的语言强度和它账本流水的体量是成正比的。ChatGPT的宫崎骏体风靡全球,作为动漫文化产业发达的日本,确实是这波AI知识产权的直接受害者。
然而同在漫画家行业里,尾田栄一郎(《海贼王》作者)公开承认使用AI辅助;奥浩哉(《GANTZ》作者)更直白地展示自己的AI工作流。漫画行业分为编剧作者和画师,对于后者,AI是直接抢饭碗的,但对于前者,AI反而是加速创作的工具。
分化不仅在"漫画家vs插画师"这条职业边界上。分化的轴线还是产权——对已经存在的内容(作为可变现资产)而言,AI是威胁;对下一部要做的作品(作为技艺扩展)而言,AI是工具。出版社和协会站在前者,个别作者站在后者。可以把这种分化命名为"资产派"与"开发派"——两者对AI的立场不同,不是因为道德觉悟不同,是因为各自把"自己的价值"锚定在不同位置。
"漫画家vs插画师"与"资产派"与"开发派",能看出“社会位置”的显性化。
代际内部的分化同样剧烈。陌生人社交应用Soul旗下研究院2025年的Z世代AI使用报告(3680份样本)显示,95.8%的中国年轻人在工作学习中使用AI,23.8%自评"非常了解AI",显著高于中国其他受众。但Soul2025调查里约40%的年轻人自报有"AI焦虑",同样针对Z世代年轻人的调查人民日报00后调查里,四成受访青年认为技术迭代引发焦虑感和危机感。
在西方,Z世代是2025年反AI运动的主力。布鲁克林卢德派俱乐部从2022年的一个小圈子扩展到全美20多个校园分会;"QuitGPT"运动据自报有250万以上参与者;2026年3月21日旧金山"停止AI竞赛"游行以大学生为主体。中国的Z世代青年当然没有上述行动,而是把AI使用内化为焦虑——但两者的底层逻辑是一致的。
Z世代的怀疑不是对技术本身的恐惧,而是对"技术威胁自身"的反感:谁被剥削、谁被考核、谁被替代。这种怀疑的历史前身不是卢德派砸机器的恐惧,而是卢德派要求把自动化的收益分给工人的诉求,在Z世代中,对UBI(全称Universal Basic Income),即无条件基本收入的热情也空前高涨。可以把这种现象命名为"反剥削卢德派"——反的不是技术,是技术被部署来剥削的方式。
漫画家行业的制度性反对和个别作者的私人使用并存,Z世代的高频使用和集体怀疑并存——这些看似矛盾的并存暴露出一条规律:对AI的态度分化不落在职业或代际的外部边界上,而落在"AI对自己意味着什么"的内部回答上。
AI带走我的资产,还是扩展我的技艺?AI替代我的下一份工作,还是解放我的这个下午?答案不同,态度当然就不同。
05.
精英话语的同构
如果上述普通人的叙事可以称为AI乐观和AI怀疑,那么现在大家面对的,还有AI降临派和末日派的对撞。
2025年6月10日,OpenAI联合创始人山姆·奥特曼在个人博客上发表《温柔的奇点》——开头第一句:"我们已经越过了事件视界,起飞已经开始。"他宣布人类正在建造数字超级智能,2025年已经有能做真正认知工作的智能体,2026年会出现能做出新见解的系统,2030年代智能和能源将极度丰裕。结尾一句祈祷:"愿我们平稳、指数式、无事地扩展到超级智能。"
半年前,美国知名AI公司Anthropic创始人达里奥·阿莫代,发表《富爱之器》,核心预测:"AI推动的生物学和医学进步,将让我们把人类生物学家接下来50到100年的进步压缩到5到10年。"他把这一压缩点命名为"压缩的21世纪"。清单包括:消除几乎所有传染病、消除大部分癌症、把人类寿命从75岁翻倍到150岁。他预测的时间线是,2026年强AI出现,2031到2040年见到这些成果。
同年9月16日,AI研究院尤德科夫斯基和索亚雷斯出版新书——标题直接就是论点:"如果有人建造它,所有人都会死。"10月5日进入《纽约时报》畅销榜。书的核心论证:超级智能一旦出现就会发展出与人类不兼容的目标,冲突不会势均力敌,人类会输。作者要求"立即停止所有大规模通用AI研发"。10月生命未来研究所发布《关于超级智能的声明》,呼吁在确保安全与有效民主意志前暂停超级智能开发——签署者既包括AI末日派也包括部分产业人士。
这两边看上去势不两立。一边说"超级智能很快就到,会让一切变好",另一边说"超级智能很快就到,会让所有人死"。然而他们有同一个前提:超级智能将至。他们的视角不在当下,而是5-10年的未来。
超级智能叙事不是草根思潮,是资本支持的叙事产业。有机构向AI存在风险生态累计投入约7.8亿美元,资金来自达斯汀·莫斯科维茨(Facebook联合创始人)和卡里·图纳的好创投基金会,还有更多大富豪投资在“超级智能”研究。
同一批亿万富翁的钱同时在末日派和降临派两边流动——莫斯科维茨网络资助机器智能研究所(MIRI,末日派大本营)和人工智能安全中心,又在早期通过好创投基金会投资了OpenAI,这个降临派的发动机。叙事的两边共享资金生态。
但注意力是有限的。当一个亿万富翁网络把10亿美元级的资金密集投向"研究AI会不会毁灭人类"这一议程,另一些议程就相对萎缩:标注工人的劳动条件、数据中心对地方电网和水源的挤占、生成式AI放大的诈骗案件、监管如何在资本游说下被架空、全球南方如何在算力生产上被边缘化。
注意力结构和结论不是一个公共讨论,更像是一场昂贵的选举,是在资金分配里被铸造的,就像OpenClaw的爆火,通过AI自动赚钱的叙事,压抑着更实际的AI风险讨论。
当然,这套叙事主要在英语世界流行。欧盟的AI讨论被锁在《AI法案》的基本权利框架里;中国的AI讨论被锁在"熟练麻木"与国家治理基础设施之间;日韩的AI讨论被锁在人口结构与产业政策之间。硅谷CEO和末日派共同锚定的那个焦点——未来5到10年的超级智能——不是所有社会的首要焦点,而是另一个“社会位置”,资本极端密集的特定产业、特定资金网络、特定语言圈的首要焦点。
06.
AI大辩论的结构
大家讨论AI的方式,其实像镜子一样,照射出的是我们本身的“社会位置”。
其实AI也是一样,多个研究证明,不同模型本身在政治和意识形态上的偏见,不是后期训练的产物,而是深入参数层。这与人类生产的较高质量文本内容的分布,以及AI开发者和监管者的意志都有关系。
AI是一面大的反射镜,其产品本身反射了人类的多种偏见,其社会认知又是不同“社会位置”的反射。但这样看,AI毫无疑问已经站在了人类社会的中央,成为一个不可能逃避的核心话题,关于经济,关于剥削,关于人类的价值,当然也关于我们自己。这些镜子彼此反射,没有一个是透明的。
这就是2025年到2026年关于AI的全球辩论的真实结构。不理解这个结构,就会以为自己看到的是"AI"——实际上看到的是几层折射后的自己。
