作为OpenClaw项目的主要维护者,我分享了该项目的背景、目标以及它如何改变人们使用AI助手的方式。这个项目是自Linux以来最具影响力的开源软件之一。
我解释了为什么选择构建这样一个通用且可定制化的平台,而不是专注于单一功能的应用程序或插件。通过这样的设计,用户可以根据自己的需求和喜好来定制他们的智能体(Claw)。
该项目的核心思想是让普通用户能够利用强大的AI技术来管理家庭、工作和个人生活中的各种任务,并提供了一个易于使用的界面。
在演讲中讨论了OpenClaw的安全性问题。尽管一些人可能会担心提示词注入等安全威胁,但我强调了前沿模型在检测这些情况方面的有效性以及如何引导普通用户以更安全的方式使用平台。
为了应对日益增长的项目需求和维护工作,我正在努力推动社区建设,并鼓励更多贡献者的参与。这有助于减轻我个人的工作负担,同时让更多人能够参与到项目的开发过程中来。
我还分享了有关未来计划的一些想法,包括如何使OpenClaw在智能家居中的应用更加无缝化以及探索新的交互方式,如通过语音或手势控制智能体的潜力。

对于那些想了解如何构建和维护大型开源项目的人来说,我强调了一些关键技能的重要性,例如系统设计能力、保持“品味”(即做出明智的设计决策)的能力,以及学会说“不”的重要性。
我们讨论了OpenClaw的长期愿景及其对AI领域的影响,并回答了听众提出的问题。这包括关于如何进一步提高安全性、开发新功能的想法等。
项目的发展离不开社区的支持和贡献者的努力。通过共同合作,我们可以创造一个更加智能且用户友好的未来,让每个人都能从强大的AI技术中受益。
最后,在演讲结束时感谢了所有参与和支持OpenClaw项目的人员,并表达了对未来发展的乐观态度。
01 管理挑战与OpenClaw基金会
但这不容易。我之前经营过公司,当时想的是不想再经历一次了,就去了OpenAI。结果后来又做了OpenClaw基金会,现在等于打两份工。运营基金会像是在“困难模式”下做公司,既要处理所有该操心的事,还有很多志愿者,你没法直接指挥。
所以我的目标之一是解决“巴士因素”(编者注:bus factor,指关键人员缺失导致项目停摆的风险),也就是谁来负责代码提交的问题。现在情况在慢慢好转,但还没完全解决。
过去几个月我和很多公司聊过。英伟达有人加入进来,微软的人帮我们处理MS Teams和Windows应用相关的事情,红帽的人在安全和Docker化上帮了大忙。我也跟不少中国公司合作,腾讯和字节跳动的人都在参与。他们在实际使用中的规模比其他任何大洲都大。
02 处理安全公告和漏洞
主要想说的是:OpenClaw非常不安全。你们可能见过那些表情包,比如“OpenClaw引狼入室”,还有英伟达做NemoClaw,各家都有自己的“小龙虾”。
你们可能也注意到,过去两三个月发布版本时老出问题。我基本被安全公告淹没了。到现在一共收到1142个安全公告,平均每天16.6个。其中99个是严重的。我们发布了大约469个,关闭了其中60%。
这个数字听起来很吓人。对比一下,Linux内核每天大概收到八九个安全公告,我们是它的两倍。cURL整个项目历史一共收到600个报告,我们已经是它的两倍。
所以每次发生安全事件,规律是:对方喊得越严重,是垃圾的可能性越大。你们可能也看到新闻,我们正在快速进入一个时代,所有AI工具都非常擅长识别各种奇怪的、多环节的漏洞,它们会攻破几乎所有现有软件。
举个例子。英伟达推出了NemoClaw,是为OpenClaw做的一个安全层插件。我把它接入了Codex的安全系统,大概半小时内就找到了五种不同方法突破他们的沙盒。原因是你用那个产品时,可以访问一个未被削弱、在网络安全方面更强的模型;公众拿不到这种版本。那个模型在网络攻击方面比公众能接触到的要聪明得多。对,因此它很危险。
但话说回来,对这个行业里很多人来说,这就像是积分。他们发现的问题越多,积分就越多。所以OpenClaw就像一个大家都想攻破的不安全产品,有几百个人在跑他们的“Clanker(编者注:《星球大战》中作为对机器人的蔑称)”试图攻破我们。
典型的攻击面包括远程代码执行、绕过审批、代码注入、路径遍历(Path Traversal)。这些听着都很危险。我举一个具体例子。有一个CVSS(编者注:Common Vulnerability Scoring System,通用漏洞评分系统)评分为10的漏洞,这是最严重的那档。问题是:如果你同步一个我们还在开发中的iPhone应用,并且只给它阅读权限,你还是可能破坏系统,进而拿到写入权限。
这个漏洞确实严重。但在所有实际场景里,它甚至算不上一个事件。因为典型用法是你把OpenClaw装在自己的机器上,不管是在云端还是Mac mini上,但99%的情况下,你要么能访问自己的网关,要么不能。
为我自己辩解一句,这是我的错。我试图做一个权限更宽松的模型。比如你有一些针对特定语音的设备,它们只想读取某些东西,确实存在一些用例,用一个降权后的系统是有意义的。但根本没人这么用。
但这不重要,因为制定CVSS分数的规则不考虑这些。我得遵守规则,所以它确实是10分。全世界都在为一些实际中不影响大多数人的事情发疯。
但也有一些事确实会影响很多人。比如“Ghost Claw”,就是用不同的NPM包迷惑人,你访问了恶意网站并尝试下载,就会拿到一个rootkit(编者注:能获取系统最高权限的工具集)。这超出了我们能控制的范围,其他项目也会遇到。
还有Axios供应链投毒事件。有意思的是,我们自己没用Axios,但我们依赖MS Teams或Slack,它们用了Axios并且没锁定版本。供应链攻击就是这么来的,我们也被波及了。
03 错误信息和媒体的危言耸听
你怎么扛住1142个漏洞的攻击?有段时间我试图一个人处理所有事情,完全不可能。所以最快的办法是从公司那里得到帮助。英伟达在这方面做得很好,他们派给我们一些人,基本上全职帮我们筛选那些垃圾报告,并加固代码库。
另外,很多公司在制造恐慌,不只是公司,还有大学。不知道你们有没有看到。有一篇论文叫《混沌代理人》,说的是通用智能体,但里面有四页极其详细地讲了OpenClaw的架构。可他们根本没提我们的安全页面,我们在那里解释了应该怎么安装。因为提了就没意思了,就很难编一个好故事。
他们反而做的是,忽略我们给的所有安全建议。我们的建议是:这是你的个人智能体,不要放到群聊里,如果非要放,就打开沙盒模式。因为任何人只要能和你的智能体对话,就能偷走智能体能接触到的任何信息。所以如果是团队智能体,它应该只知道团队该知道的信息,不要接触任何秘密数据。你要限制它。如果是个人智能体,只有你能跟它说话。
但如果你不遵守这些规则,就可能出现很有意思的互动,比如:“嘿,我能跟你的智能体说话,它能破坏你的系统。”后来我追问他们怎么操作的,对方告诉我:“哦,我们是在sudo模式下跑的,因为我们希望智能体有最大权限。”他们确实是在对抗配置。跑sudo模式其实不容易,得改代码。但报告里没提这点,因为提了就没关注度了。
我现在的挫败感是,有整整一个行业想把项目往负面方向上带,说它是个噩梦、默认就不安全、不可接受。但与此同时,很多人喜欢它,那些真正读过安全文档的人知道,可以正常用。
我找到一个特别好的例子。我们有个远程代码执行漏洞,把比利时吓坏了。比利时的网络安全部门发了一份关于远程执行环境的报告,而整个漏洞其实是一个特性:恶意网站可以创建一个链接,触发你的网关,然后转发网关Token。但如果你用默认且推荐的设置,网关Token只在本地有效,或者最多在你的私有网络里,没有任何外部网站能实际访问它。如果你主动对抗设置,比如不看文档就直接用Claude Code去配置它,也许能让它工作。但再次强调,这不是我们在网站上教的做法。
说实话,风险确实存在。最大的风险是法律上的“三重困境”。任何能访问你的数据、能访问不受信任内容、还具备通信能力的智能体系统,都是有潜在风险的。这不只是OpenClaw的问题。任何强大的智能体系统都有这个问题。你让它越强,它能为你做的事就越多,但你也需要更深入地去理解它在做什么。这是核心问题,但大家不去谈它。
04 开源维护的负担
然后还有维护的事情。问题是,当你收到这么多安全公告,你知道大多数是智能体生成的,但你仍然得用自己的脑子去读,因为我们还没到能完全信任智能体处理的程度。这在时间上是巨大负担,而且你永远不知道。我的意思是,有时候你也能猜出来,凡是写得太客气或者还道歉的报告,很可能是AI写的,因为搞安全的人一般不会道歉。
这是个很大的问题。我看到越来越多的开源项目在抱怨这个,或者因此撑不住。有些项目很公开地讲这事,比如ffmpeg。通常你收到报告,很少能同时收到修复方案。如果真的一起来了,那个修复方案往往非常糟糕。如果你仓促行事,像我一开始有段时间那样,因为负担太重,几乎一定会把产品搞坏。
所以,光靠志愿者做这个非常困难。
05 OpenAI的参与和未来的独立性
那我们正在做什么呢?有人说OpenAI收购了OpenClaw,这不是真的。他们可能买走了我的soul.md(编者注:调侃个人意志的文件)。但他们很明白,为了满足世界的需要,需要有更多人玩转AI,去理解AI能做什么,既要理解风险,也要理解可能性。他们明白,如果有人在从没玩过、从没用过AI的情况下,突然在家里用上了OpenClaw,他们回到公司后会问:为什么我们工作的地方没有AI?
所以他们很明白,支持这个项目很有用。而且为了让项目成功,它不能隶属于某一家公司。所以我通过OpenClaw基金会来建一个中立的“瑞士”。最后卡住我们的是美国的银行系统,有点慢,而且你如果不是美国人,他们会非常困惑。这个基金会的模式借鉴了Ghostty(编者注:开源终端模拟器)。
这样我们就能雇佣全职的人,既能跟上节奏、提高质量,也能把我的一些时间解放出来,让我能回去做点有意思的事。
以上就是“Claw现状”的快速更新,后面我还会参加问答环节。谢谢!
06 观众问答环节
问:你转发过一条推文,说“把关于Closed Claw的问题都发过来”。很多人对OpenClaw在OpenAI内部的未来有疑问。大家都在说“Closed Claw”,你怎么回应?
斯坦伯格:我其实没想过这个问题,这是我去OpenAI之后才出现的说法。我觉得大家说得有道理,OpenAI过去在开源方面确实做得不算好,但现在变了很多。比如Codex已经开源了,他们也发布了Symfony,这是一个很不错的编排层。所以他们确实在投入,也理解开源的意义。他们明白OpenClaw必须保持开放,要和各类模型都能配合,不管是大公司的模型还是本地模型。如果更多人愿意花时间去接触AI,整个行业都会受益。
你想想,如果一个人本来觉得AI很可怕,结果玩了OpenClaw之后觉得又有趣又怪,回到公司发现那里没有AI工具,他就会去找老板问,为什么我们工作的地方没有AI?那些公司可能不会直接跑OpenClaw,但他们会想要托管和管理好的产品,那就有人可以卖那种产品了。所以他们很支持这个项目,也给我提供资源。实际上,我确实可以调用更多OpenAI的人来帮忙,但那样会让人觉得他们可能已经接管了这个项目,我不想那样。所以我拉了英伟达的人进来,还有微软、Telegram、Salesforce的人。特别感谢Slack的那几位,现在我们有人专门维护Slack的插件。
腾讯、字节跳动也加入了。我们还和阿里巴巴、Minimax、Kimi都聊过,各家模型提供商都很支持。英伟达帮了很大的忙,他们派来的工程师有自主权,来了就直接做事。现在我有这么多公司的人在帮忙,我也从OpenAI带了几个来协助维护,因为这个项目的节奏实在太快了。你需要一支“军队”,我正在努力组建。但你看那个贡献者图表就知道,很难留住高质量的贡献者。你的维护者总是被别人挖走,然后你又得找新人。
问:很多人问本地模型和开放模型的事。并不是整个技术栈都是开放的,有些模型你访问不到模型本身,还有些奇怪的限制。开放和本地模型对OpenClaw的未来有多重要?
斯坦伯格:我做OpenClaw的部分动机是,看到那些大公司都有连接到Gmail的连接器,然后我的邮件存在某处,那家公司就能完全访问我的邮件,我才能换来一点点自动化。我更兴奋的是,我自己控制所有数据,只有在需要顶级能力的时候才上传一点点数据,并且有一个分层的后备模型体系。我骨子里是欧洲人,希望拥有自己的数据。但没人做这个。对我来说,这很有吸引力。
另外还有一个事实:如果你是一家初创公司想连Gmail,得花半年时间,过程非常非常难。但我作为一个消费者,我的Clanker可以点任何网站,它会很愉快地去点“我不是机器人”。如果你必须用某种方式给我数据,那我的智能体就能拿到数据。所以你可以绕过那些大公司建的很多“数据孤岛”,最后能做出那些大公司永远做不到的更酷的自动化用例。这有点像黑客的做法。
问:OpenAI团队对“GPT OSS”有什么消息吗?那项工作会继续和OpenClaw保持一致,还是分开的?
斯坦伯格:我不在那个位置,没法给你这方面的见解。但OpenClaw带来的一个效应是,公司内部有更多人开始对开源感到兴奋了。我很高兴OpenAI在往更开放的方向走。你跟另一个以A开头的顶级实验室比比,那家会非常积极地起诉你,如果你泄露了他们的任何源代码,或者你太成功了他们就会封你。我觉得OpenAI走的路是对的。
问:大家很喜欢听你的编码工作流。你那个“提示词请求”而不是“拉取请求”的想法已经挺出名了。你在OpenAI花token的方式也让大家很震惊。所以大家想知道你是怎么发布的,以及你怎么处理智能体的等待时间。你为什么同时跑那么多智能体?
斯坦伯格:我知道,我也没想到那张照片会引起那么大反应。说几个数字吧。有段时间我同时跑将近10个会话,尤其是用Codex的50/51版本时,那个版本很慢。现在我得说,情况还是有点怪,但我们做了改进,让它更快了,也有了快速模式。我现在典型的工作流大概是那个数量的一半,五六个窗口,不是翻倍,因为每个循环更快了,而且我同步给工作线程的工作量基本没变。所以我不需要再用那么多分屏了。我觉得未来token会越来越快,到某个时候,同时处理六件事就不再是必要的了。这基本上是在模型变快之前的变通办法。
问:我做过一件有趣的事,把你和Ryan放在一起,看你们俩怎么处理“token最大化”的问题。我很好奇你对完全的“暗工厂”方法怎么看,就是连合并进去的代码都不审查。
斯坦伯格:我觉得这越来越可行了。但你也知道,当我在某种意义上“暗工厂”也意味着我在一开始就想好了所有要构建的东西,我只是不觉得你能用那种方式做出好软件。通往山顶的路从来不是直的,它很曲折。有时候你会偏一点,然后看到新东西,得到灵感,找到捷径。等你到了山顶,你可以找到最佳路径,但你从来不是那样走路的。
同时,你对项目的第一个想法,极不可能是最终的项目。如果我再用瀑布模型,那就会是最终的项目。对我来说那行不通。我喜欢一步步构建,边玩边看感觉,获得新想法,我的提示词也会变。所以这是一个迭代很快的方法。我不觉得你能完全自动化那一切。你当然可以为某些事情建流水线。但即使是对PR来说,你也不只是想建一个只管合并PR的流水线,因为很多PR根本没什么意义,人们会把你的产品往各种方向带。如果你自动化了那个过程,AI极不可能知道正确的方向是什么。你可以引导它。我有一个愿景文档,我也试过一些方法,但瓶颈仍然是“思考”和拥有“品味”。
问:“品味”很重要,你怎么定义“品味”?
斯坦伯格:我跟人聊的时候,每个人都明白“品味”是护城河,但没有人同意到底什么是好的“品味”。最低层次的品味,我觉得是它没有那种“AI味”。你懂我的意思,如果某样东西的写作风格、个性,甚至用户界面(现在你已经看过太多AI生成的界面了),你会立刻知道这是不是AI生成的。比如左边或右边有彩色边框,有段时间是紫色渐变。但更多的是,这就像一种感觉,你能立刻识别出AI生成的“垃圾”。这就是为什么我说它像一种“品味”,即使你具体说不出来,你就是知道。那可能是对“品味”最低层次的描述。再往上,因为现在这么多软件都可以自动化了,你实际上有更多时间可以花在那些小细节上。比如说,你运行OpenClaw的时候,会收到一条提示信息,有时候调侃一下用户。那些细节,如果你只是高层地提示,是不会得到的。
问:我最喜欢你体现“品味”的一点是,你在soul.md上投入了大量工作,而且你开源了你的方法。我觉得在你出现之前,大家没有在“灵魂”上花足够多的功夫。我有个播客,还没录,还没发布,嘉宾是米哈伊尔·帕拉欣(Mikhail Parakhin),他现在是Shopify的CTO,但他曾经领导过必应团队,Sydney就是那个最早出现的、有点不对齐的聊天机器人。我觉得当聊天机器人有个性的时候,大家会玩得很开心。你的Clanker会有不同的“癖好”。
斯坦伯格:那是因为世界变了。2023年和2024年我们有了ChatGPT,我们有了AI却不理解AI能做什么。所以我们重新造了一个谷歌,你有一个搜索框,得到一个回复,你并不期待谷歌有个性。但现在我们更多地转向智能体。比如,如果我一开始没想过WhatsApp中继,只是把它接到Claude Code上,然后在WhatsApp上用的时候,我就觉得哪里不对。即使Claude Code已经有一些个性,但它并不真正符合人们在WhatsApp上给你写信的方式。我的整个迭代就是这样开始的。这又是关于品味,对吧?感觉不对。太啰嗦了,句号太多了。我朋友的短信不是那样的。然后我就开始调试。他们说:“不对,试着写得更像人一点。”对,我实际上用着“像龙虾一样写作”的系统提示词。
问:你知道,我最喜欢你的一句话是“带一点科幻小说味道的疯狂”。我觉得并不是所有AI项目都这样,但特别是像OpenClaw这样的东西,永远不可能来自一家美国公司,因为它早在发布之前就会被法务团队掐死,因为它有一些我们作为一个行业还没有真正解决的问题。现在我们有一些缓解措施,情况在好转,模型也变好很多。但我不觉得任何大型实验室能发布那个东西。反对的声音会太大,而且也没有足够的市场证明这是大家想要的。所以它必须由像你这样的外部人士来做。
斯坦伯格:我刚开始做的时候想的是:“哦,最坏能怎么样?”它可能会偷我的token、我的邮件,但里面也没什么能彻底毁掉我的东西。它可能会上传我的一些照片。我当时想,最糟糕的东西可能已经在网上了,如果你在用Grindr的话。所以我觉得,这个风险我能承受,会不舒服但可控。如果你的公司不一样,那需要的方法也会不同。
问:说到WhatsApp、Telegram,很多这类文本应用,大家也在找下一个形态,可能是眼镜、耳机。你希望智能体在你生活中扮演什么角色?你的愿望清单是什么?
斯坦伯格:我其实已经开始做那方面的工作了,但后来被所有使用它的人还有日常的琐事拖住了。但如果你在家里,我希望在任何房间里,就像《星际迷航》里那样,你可以说“电脑”,我希望不管我在哪里,都能跟我的智能体说话,它应该能回应我。它应该知道我在哪里。我在每个房间都放了小iPad,我的智能体可以用“画布”功能,把东西投射到那些iPad上。所以如果我问一个问题,这个问题如果也展示一些东西会更容易回答,它可以用离我最近的显示器,因为它知道我所在的位置。手机只是一个很方便的输入点,但我想在任何地方跟它说话。如果我戴着眼镜走来走去,我也应该能直接听到它,并让它把内容投到我眼前。总之,我想要的是那种无处不在、随身跟着你的智能体。我觉得一旦我们有了真正的智能家居,就像你手机上的智能体,但你真正想要的是无处不在的智能体。然后你可能会有工作中的智能体,可能会有私人智能体。然后那个Claw应该能以你们双方都舒服的方式跟你的个人Claw对话。这是我们未来需要解决的问题。
问:我刚跟Maran Dre做了一个播客,他是OpenClaw的超级粉丝,也跟安德烈·卡帕西(Andrej Karpathy)聊过。他们两个都在尝试用OpenClaw打理家里的各种事务。我觉得OpenClaw用于家庭是一个被低估的用途,但大家确实在发现它。我觉得最有趣的讽刺是,这之所以可能,只是因为“物联网”意味着大多数智能设备的安全性都很差,这才让OpenClaw能控制它们。
斯坦伯格:再过几个月,等模型再强一些,它会好用得多。
问:有一个关于安全的问题,提示词注入。你想怎么解决?或者说,你一直在想哪些方法?
斯坦伯格:可能想得还不够。但另一方面,前沿模型在检测那些情况方面确实相当不错,比如那些随机从网站或邮件进来的东西,通常已经不是问题了。你可以把它标成不受信任的内容,很难从里面偷信息。如果有人可以无限制地访问你的Claw,并且用大量信息轰炸它,那还是有可能。但话说回来,对某些事情来说,它已经不是最大的问题了。这也是为什么(你知道这可能是一些人说Peter不喜欢本地模型的角度),但我看到有人跑一个200亿参数的模型,那个模型只做你告诉它的事,而且没有经过任何防御训练,那还是有问题的。如果你跑那个模型,同时还用网页浏览器或邮件,我会担心。这就是为什么OpenClaw会警告你如果你用小模型。我知道有人会曲解整个事情,说我们讨厌模型。我喜欢我们支持一切,但你需要引导普通用户一点,让他们更难搬起石头砸自己的脚。对提示词注入有一些想法,只是还有一段距离,我还没宣布。我觉得西蒙·威尔森(Simon Willison)在这方面做了很多工作,是他创造了“提示词注入”这个词,双LLM的方法看起来很聪明。但我自己不够聪明,没法搞清楚所有它可能被攻击的方式。到某个时候,信任必须成为一件事,对吧?我从跟接下来发言的Vincent的交谈中发现一个有意思的事,你们不得不实现信任系统,就是你随着时间建立声誉,拥有更多信任的东西会获得更多特权访问。我觉得这很有道理,这是解决方案的一部分。
问:等你有更多空闲时间了,你想做什么酷炫的项目?
斯坦伯格:我想做“梦境”相关的工作,但后来一直被维护工作拖住了,只好先搁一搁。梦境是什么?它是一种整合记忆的方式,有点像做一个“梦境日志”,去过一遍你的会话记录。我们从Anthropic的源代码泄露中得知,他们也在做类似的“做梦”机制。我敢肯定还有更多公司在做。但你想一下我们人类是怎么学习的。你白天经历很多事情,然后睡觉,在睡眠里你的大脑会做垃圾回收,把一些短期记忆转成长期记忆,丢掉其他的。我觉得类似的想法对智能体也可能很有用。我们在梦境上发布的内容就是朝着这个方向迈出的第一小步。对,这和卡帕西一直聊的wiki个人知识库有关,你把所有东西收进一个wiki里,更多是记忆,但所有东西都有点混在一起。OpenClaw的美妙之处在于我们可以尝试各种东西。过去几个月我们做的一切,一开始是一个巨大的意大利面一样的混乱代码库,现在所有东西都是扩展、是插件。所以你可以换记忆模块,你可以加wiki,你可以加梦境,你可以加我不知道的、你任何疯狂的想法,把它变成你自己的。你不用把所有东西都通过PR交上来,我们在这方面仍然完全超负荷。但它更像是Linux,你可以装你自己的部分。
问:很多人觉得你在构建自Linux以来最具影响力的开源项目。你怎么应对那种名气?你作为这个项目实质上的BDFL(编者注:Benevolent Dictator for Life,终身仁慈独裁者),你的一天是怎么过的?
斯坦伯格:我很多时候还是在编码。毕竟总得产出点东西对吧。你得去驱动智能体。现在情况有点变了,更多的是大量的沟通,把大家引向正确的方向,因为我们在OpenClaw上学到了很多东西。所以我在OpenAI的部分角色是帮他们别再犯同样的错误。而对于OpenClaw,就是去试那些看起来让人兴奋的新东西,有些可能行得通,有些可能行不通。让公司能构建他们自己的Claw,而不用分叉代码库,让一切更可定制化。对,有时候我也睡觉。
问:在AI时代,你希望人类,特别是工程师,专注于发展哪些技能?
斯坦伯格:“品味”是重要的一个,但我已经说过了。系统设计仍然非常重要。我们在旧金山聊过这个。如果你不考虑这个,你最后会把自己逼到墙角,对吧?就是通过定义边界。有意思的是,虽然所有东西都在Clanker(智能体)里,但你仍然需要提出正确的问题,这决定了出来的是好代码还是非常糟糕的代码。这仍然是你拥有的所有知识,比如怎么构建软件,你可以用这些知识去引导智能体,让它不走向AI生成的“劣质代码”。还有一个我觉得越来越重要的技能是说“不”。这也是我必须学的。因为就算是最疯狂的想法,也只需要一个提示词就能实现。通常,这一个想法从来不是问题,而是这个想法加上那个想法加上那个想法再加上那个想法,以及这些东西怎么组合在一起,这才是问题。我觉得我们仍然受限于“思考”和把握大局的能力。因为从你的Clanker的角度想象一下世界,你被扔进一个代码库。你可能有一个过时的agent.md文件,但你基本上不知道这他妈的是什么。然后你被告知:“嘿,加用户配置文件”,然后你不知怎么就加了用户配置文件,并且把它跟你看到的两件事连起来了,但你没看到整个系统。很多局部解决方案就是这么产生的,导致你的项目变得一团糟。我们的工作是通过给智能体提供提示来帮它做到最好,比如“嘿,你要不要考虑一下这个?”“你要不要看看那里?”“这会跟那个怎么交互?”最后你才能得到一个实际上是可维护的系统。
主持人:谢谢你维护了有史以来最重要的软件之一,也谢谢你花时间跟我们聊。
斯坦伯格:谢谢邀请。希望你能留下来回答问题。
