杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利

图片[1]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

当你面对一堆连 AI 自己都不理解的复杂代码时,你已经彻底丧失了修复它的能力。

编译 | 王启隆

来源 | youtu.be/dHBEQ-Ryo24
出品丨AI 科技大本营(ID:rgznai100)

Vibe Coding 这个词从卡帕西大神提出到现在,已经过了整整一年。而自从 Peter Steinberger 通过 Vibe 写出了 OpenClaw 这样的现象级软件,人们似乎笃信:哪怕你连一行代码都看不懂,只要你会写提示词,大模型就能像变魔术一样帮你写出一个完整的 App。社交媒体上到处都是非技术人员“一天开发十个应用”的炫耀贴,似乎软件工程师这个职业即将被扫进历史的垃圾堆。

但在这场震耳欲聋的欢呼声中,一位真正为深度学习奠基的元老,却发出了截然不同、甚至极其刺耳的严厉警告。

“这真的让我感到恶心。我甚至觉得这简直是反人类的(inhumane)。”

图片[2]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

说出这句话的人是 Jeremy Howard(杰瑞米·霍华德)。如果你是 AI 圈的从业者,你绝对不可能没听过他的名字:他是 Kaggle 的前总裁兼首席科学家、顶级 Grandmaster;他是 Fast.ai 的创始人;更重要的是,在 2018 年,正是他与 Sebastian Ruder 共同提出了 ULMFiT,打破了当时“语言模型无法微调”的行业铁律,直接启发了后来的 ELMo、BERT 和 GPT 系列,拉开了 NLP 预训练大模型的序幕。

在这场由 Machine Learning Street Talk (MLST) 播客主理人 Tim Scarfe 飞赴澳大利亚布里斯班、在其后院进行的深度对谈中,这位深度学习先驱将目前 AI 编程的遮羞布撕得粉碎。

他没有为当前的 AI 狂热背书,反而像一位忧心忡忡的导师,犀利地指出了隐藏在代码自动生成背后的巨大陷阱。这不仅是一场关于技术的硬核探讨,更是一场关于“人类心智如何成长”的哲学思辨。

图片[3]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

在进入这篇近万字的硬核实录之前,我们为你提炼了这场对话中最具颠覆性的核心论断:

  • Vibe Coding 本质上是一台“老虎机”: 你写下一段提示词,按下回车,然后祈祷出来的代码能跑通。你获得了控制的幻觉,但当你面对一堆连 AI 自己都不理解的复杂代码时,你已经彻底丧失了修复它的能力。
  • 大模型没有创造力,它只是在“角色扮演”理解: 无论是让 Claude 写 C 编译器,还是解决某个具体任务,AI 都只是在训练数据的庞大分布中进行“插值(Interpolation)”。它们没有建立真实的物理心智模型,一旦脱离训练分布的“舒适区”,它们就会瞬间变得比白痴还蠢。
  • “适当的困难(Desirable Difficulty)”是人类进化的燃料: 如果把所有初级、繁琐的编程任务都交给 AI 自动化,人类就会失去建立代码直觉的摩擦力。一个从未在泥泞的底层代码中挣扎过的初级程序员,永远不可能成长为架构复杂系统的资深工程师。
  • AI 最大的末日风险,是被巨头用来“夺权”: 别去操心什么“AI 觉醒毁灭人类”的科幻剧本。真正的危险在于,科技寡头和政府正在利用这种恐慌制造监管壁垒,试图将这种能够颠覆世界的技术垄断在少数人手里。

以下是这场对谈的完整中文深度编译。

图片[4]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

历史的回声——打破“语言模型不可微调”的铁律

Tim Scarfe(蒂姆·斯卡夫,MLST主理人,以下简称“蒂姆”):Jeremy Howard,欢迎来到 MLST 播客。

Jeremy Howard(杰瑞米·霍华德,以下简称“杰瑞米”):欢迎来到我的家,谢谢你大老远飞过来。

蒂姆:我们现在到底在哪?

杰瑞米:我们现在在澳大利亚昆士兰州东南部的莫顿湾(Moreton Bay),海边,就在我的后院里。

蒂姆:这里的天气绝对没让我失望。不过我不知道该从何说起。我一直是你的超级粉丝,大概从 2017、2018 年开始吧。当时你发表了那篇著名的 ULMFiT 论文。我记得我当时在微软工作,我还专门做过一个关于它的演讲。因为回想起来,那是一个巨大的转折点。

如今我们觉得大语言模型的“微调(Fine-tuning)”是理所当然的事:我们在海量的文本语料上预训练模型,然后再专门对它进行微调。但显然,在当时,这并不是什么公认的“行业共识”。

杰瑞米:不,那甚至是历史上第一次有人这么做。是的,大概是前一两年吧,Quoc Le 和 Andrew Ng 几年前做过一些尝试,但他们漏掉了一个极其关键的点:你预训练的对象,必须是一个通用目的(General Purpose)的语料库。

当时没有人意识到这个关键点。也许我算比较幸运吧,我的背景其实是哲学和认知科学(Cognitive Science),所以在过去的几十年里,我一直在思考这些问题。

蒂姆:能不能给我们简单勾勒一下 ULMFiT 的技术架构?

杰瑞米:我个人是“正则化(Regularization)”的超级粉丝。我非常喜欢采用一种极其灵活的模型,然后不要通过减小其架构规模来限制它,而是通过增加正则化来约束它。但在当时,即使是这个观点也极具争议,当然这绝不是我们独有的洞察。

当时,Stephen Merity 把 LSTM [注:长短期记忆网络,当时最流行的RNN架构] 的极端灵活性发挥到了极致,它其实就是一个经典的、带状态的循环神经网络。然后他在上面加了整整 5 种不同类型的正则化!你能想到的正则化方式他全加上了。

我的出发点是:好,我现在有了一个极其灵活的深度学习模型,它能变得像我期望的那样强大,同时也能受到我需要的约束。接着,我需要一个真正庞大的语料库。有趣的是,当时 Stephen 恰好在 Common Crawl 工作,他帮我们弄到了维基百科的数据集。

后来我发现,原版的维基百科数据集做了太多假设,比如把所有的“未知词(Unknown words)”都标记为 <unk>,因为它假设你要用传统的自然语言处理(NLP)方法。于是我推翻了重来,创建了一个全新的维基百科数据集,这就是我的“通用语料库”。

接着,我用了一个叫 AWD-LSTM 的模型。我就用一台老式的游戏显卡跑了一夜——大概 8 个小时。当时我们在旧金山大学,手里根本没有堆积如山的计算资源,我估计就是一块 2080 Ti 显卡。

第二天早上我醒来,然后进行了今天我们所说的典型的“三阶段架构”(预训练、领域微调、下游任务微调)。我当时觉得,既然我已经训练了它去预测维基百科的下一个词,它一定对这个世界有了相当多的了解。

然后我想,如果我把它放在一个特定领域的语料库上进行微调——也就是今天我们说的监督微调(Supervised Fine-tuning)——比如电影评论数据集,它应该会变得特别擅长预测电影评论里的下一个词。我跑了一个小时的领域微调。

接着,我做了最后几分钟的下游分类器微调。这是一个经典的学术数据集,被认为是最难的一个任务:给你一段 5000 字的电影评论,你要判断它是正向情感还是负向情感。在当时,这被认为是很难的,当时表现最好的模型,都是一些极其专用的、别人写了整整一篇博士论文才搞出来的模型。

结果呢?我在微调后的 5 分钟内,就打破了当时所有的 SOTA(最优结果)纪录。 真是太神奇了。

图片[5]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

2018 年,Jeremy Howard 的 ULMFiT 论文历史性地证明了:先在通用语料上进行预训练,再到特定领域进行微调,最后进行任务分类的“三段式”路径是完全可行的。这彻底改写了 NLP 的发展轨迹。

蒂姆:关于如何进行微调,你们当时还提出了一套非常有趣的方法论。

杰瑞米:是的,关于“怎么微调”,这是我们在 fast.ai 开发出来的方法。这算是 fast.ai 第一年的成果。当时最具争议的一件事,就是我们认为我们应该专注于“微调现有的模型”,因为我们认为微调太重要了。同时期的其他研究者,比如 Jason Yosinski,他在博士期间做了一项非常伟大的研究,就是探讨如何微调模型以及它们到底能有多好。

在计算机视觉(Computer Vision)领域,我们算是最早投入微调研究的一批人。当时我们发现,用一个单一的学习率(Learning Rate)去微调整个庞大的网络是毫无意义的,因为网络的不同层有着完全不同的行为。

于是我们提出了“判别式学习率(Discriminative Learning Rates)”的想法。

对于不同的层,我们赋予不同的学习率。另一个关键洞察是——这在很多年里都没人意识到——你实际上需要对每一个 Batch Norm(批量归一化)层进行微调。因为那是驱动整个网络上下波动的关键。当你这么做的时候,你通常只需要微调最后的一两层。我们在 ULMFiT 中发现,尽管我们解冻了所有的层,但其实只需要最后两层就能接近 SOTA 结果。这大概只需要几秒钟。

图片[6]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

Vibe Coding 是披着智能外衣的“老虎机”

蒂姆:我觉得这是一个极其重要的历史背景。现在让我们把时间线拉回现在。目前在 AI 辅助编程领域,有一种流行的现象叫做 Vibe Coding。人们用自然语言写提示词,让大模型生成代码,如果跑不通就让它再改。你觉得这是未来吗?

杰瑞米:说实话,这真的让我感到恶心(It literally disgusts me)。我甚至觉得这简直是反人类的(inhumane)。

我对科技的使命感在过去 20 年里从未改变,那就是:阻止人们像这样工作。

关于以 AI 为核心的代码生成(AI-based coding),最致命的问题在于,它就像是一台老虎机(Slot Machine)

你获得了一种“控制的幻觉(Illusion of control)”。你可以精心雕琢你的提示词(Prompt),列出一长串的模型上下文(MCPs),加上你的技能要求等等。但在最后,你依然只是拉下了老虎机的拉杆。

然后,老虎机吐出了一段没有人能真正理解的代码。

图片[7]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

蒂姆:但很多人会说,只要它能跑通就行了啊。

杰瑞米:这就引出了一个终极问题:我愿意把我们公司的产品押注在这段代码上吗?

答案是:我不知道。因为没人知道它到底在干嘛。没人经历过构建这个复杂系统的过程,他们非常不擅长软件工程。

我认为有一个真理永远不会改变:当人类能够实时地操控计算机内部的对象,并与之交互时,人类能用计算机做到的事情,远远大于单纯把任务外包给它。

如果你去听那些伟大的科学家的讲述,无论是费曼(Feynman)还是其他人,他们建立深度直觉的方式,是通过构建“心智模型(Mental Models)”。而心智模型,是通过随着时间推移,不断与他们正在学习的事物进行深度交互而建立起来的。

机器在今天可以通过分析巨大的文本语料库的统计相关性,构建出关于世界运作方式的抽象层级结构。这是我的前提。但我坚决反对将其视为真正的创造力或理解力。

蒂姆:但确实有一些公司在使用大模型生成海量的代码。比如最近 Anthropic 发布了一篇博客,说他们让 Claude 的智能体团队(Agent Teams)自主编写了一个 C 编译器。这听起来像是在颠覆软件工程?

杰瑞米:我看到了那篇由 Chris Lattner(LLVM 的作者)点评 Claude 写的 C 编译器的文章。当时他们说:“这是一个 clean room(无尘室)级别的 C 编译器。”你能看出它是 clean room,是因为它是用 Rust 语言写的。

但只要你稍微扒开看看,你就会发现,这个所谓的“AI 编写的编译器”,不过是对目前最广泛使用的 C/C++ 编译器(如 Clang 和 LLVM 架构)进行了一次极其拙劣的风格迁移(Style Transfer)

因为互联网上到处都是 LLVM 的代码,到处都是关于如何构建编译器的教材。把 C 语言编译器的逻辑转换成 Rust 语言,本质上只是在训练数据的不同部分之间进行了一次插值(Interpolation)

他们没有真的在“创造”一个编译器。他们只是在海量存在的相似实现中,拼凑出了一个看起来像编译器的东西。

所以,想要构建出不是纯粹抄袭的东西,你不能仅仅把它外包给 LLM。这就好比,如果这个世界上从来没有过这两种工具(比如从来没有过编译器或者某种算法),你觉得 AI 能够从零开始发明它们吗?目前没有任何经验数据表明它们具备这种软件工程的能力。

图片[8]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

Anthropic 宣称的“AI 自主编写 C 编译器”的突破。

图片[9]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

角色扮演与“知识的压缩”:AI 真的懂了吗?

蒂姆:这引出了一个非常哲学的问题。网上一直有两种声音:一派说 LLM 根本什么都不懂,它们只是随机鹦鹉;另一派则说,你看它刚才帮我解决的这个问题,你别太荒谬了,它当然有理解能力!

杰瑞米:有趣的是,他们两边都是对的。

大语言模型是在“角色扮演(Cosplay)”理解事物。它们假装自己懂了。

在认知科学领域,这有点像丹尼尔·丹尼特(Daniel Dennett)提出的“意向立场(Intentional Stance)”,或者是约翰·塞尔(John Searle)的“中文房间(Chinese Room)”实验。

你把一个问题丢给它,它回答得头头是道,看起来像是一个极具智慧的实体。但实际上,它只是在做高维度的统计相关性匹配。

我们来区分一下“假装懂”和“真的懂”。只要你处于大模型训练分布的那个区域内,这两者之间的区别是完全不重要的。如果它碰巧在一大堆它背过的物理学教科书的数据附近“假装”它懂物理,它的表现会非常出色。

但一旦你踏出那个训练分布的边界,哪怕只是一步之遥,它就会瞬间崩溃。

蒂姆:你之前也提到了知识的复杂性和不可还原性。比如 César Hidalgo 在《知识的法则》中提到,知识是网络化的。还有哲学家指出,知识是一种“视角(Perspectival)”。

杰瑞米:完全正确。我认为知识是有视角的,知识是具身化(Embodied)的,它是活的。它存在于我们的身体里,存在于我们的社会和组织中。

一个组织的根本目的,就是为了保存和进化这种知识。当你开始把那些需要认知能力的任务交给语言模型时,你其实产生了一种非常诡异的矛盾效应:你侵蚀了组织内部的知识。

很多人在争论 AI 是否有创造力。我之前跟 Peter Norvig 聊过,我们觉得 AI 其实挺有创造力的。比如,如果你拿国际象棋的符号去喂给大模型,它就能学会下棋。但关键在于,知识其实是关于约束(Constraints)的。

创造力是知识在尊重这些约束的前提下的进化。如果你不给它施加严格的约束,它就不能叫创造。

比如,如果你让大模型去写代码,但它经常连最基本的逻辑前提都搞不明白。它会犯下比白痴还蠢的错误(worse than stupid)。它不知道世界是怎么运作的。为什么?因为我掉出了它的训练数据分布之外,它变傻了。

如果这种行为被称为“创造力”,那是极其误导人的。只有当你能清晰地描述出问题的边界和约束,并能通过物理或逻辑的验证机制时,创造力才是有价值的。

蒂姆:我想聊聊这种过度自动化带来的负面影响。最近 METR(一个 AI 评估组织)发布了一项研究,发现使用了当前顶级 AI 辅助编程工具的资深开发者,在处理复杂问题时,反而比不用 AI 的人慢了 19%。因为他们陷入了“检查 AI 错误”的泥潭中。

图片[10]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

METR 的最新研究表明,在处理复杂的高级编程任务时,资深开发者在使用 AI 辅助后,耗时反而增加了 19%。因为纠正 AI 的逻辑漏洞并试图理解其生成的“代码黑盒”,比人类自己从头架构还要耗费心智。

杰瑞米:是的,我看到了那个研究。这正是我最担心的事情。

对于人类来说,如果你不在平时的开发、设计和工程中主动使用并锻炼你的“肌肉”,你就不会成长。你甚至会枯萎。

作为一家研发型初创公司的 CEO,如果我的员工没有在成长,我们公司就会死。

蒂姆:这就涉及到了教育学中的一个概念:适当的困难(Desirable Difficulty)。艾宾浩斯(Ebbinghaus)的记忆曲线告诉我们,只有在快要忘记的时候去努力回忆,记忆才会被深深地刻在大脑里。如果我们把所有的认知挑战都外包给 AI,我们会不会失去建立深层直觉的能力?

杰瑞米:完全正确!这是极其深刻的洞察。

记忆不会平白无故地形成,除非你要付出努力去形成它们。如果在你快要忘记之前,AI 总是恰好把答案喂到你嘴边,你永远无法建立起真正属于你自己的知识结构。

我给你举个非常具体的例子。我在 2014 年创办了世界上第一家将深度学习应用于医学的初创公司,叫 Enlitic。我们最初的焦点是放射学(Radiology)。

当时有很多人担心:AI 会不会让放射科医生变得越来越平庸?

我强烈地认为会发生完全相反的事。所以我们做了大量关于如何将 AI 融入工作流的研究。比如飞机上的线传飞控(Fly-by-wire)或者汽车上的防抱死制动系统(ABS)。如果你能成功地将那些真正可以被自动化的任务自动化,你就能让专家把精力集中在那些真正需要他们的地方。

我们在放射学领域发现,如果我们可以自动识别肺部 CT 扫描中所有的“候选结节(Possible Nodules)”,而且我们做得确实比人类好,那么放射科医生就可以省去满屏幕找黑点的机械劳动,把全部精力集中在判断:“这些标记出来的结节,到底是良性的还是恶性的?”

这让专家变得更强了,因为这去除了低价值的噪音。

但回到软件开发,情况完全不同!

如果一个工具没有以“顺应人类直觉”的方式工作,那么对于一个人类而言,它就是在阻碍你成长。

对于一个只干了前五年开发的新手来说,你让他放弃使用编译器或高级语言,让他去抠底层的逻辑,他会觉得很痛苦。但那些在过去几十年里成长起来的伟大程序员,他们都是在与复杂的系统中进行真实的、“充满摩擦力(Friction)”的对抗中,建立起了庞大的心智模型。

如果你现在让一个大语言模型直接把那些有摩擦力的任务全给做完了,那就像是,本来你只需要修改一个小组件,结果大模型给你生成了一大坨垃圾代码(Code slop)。你在那里不断地 prompt 它,让它修改,最终你得到了一个能跑的东西。

但是,你并没有建立起对这套代码的心智模型。

这意味着什么?意味着在 10 年后,我们将失去能够理解和架构宏大软件系统的资深工程师。这就是我所说的“反人类(inhumane)”的原因。它剥夺了人类获取深层知识的权利。

图片[11]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

Jupyter Notebook 的保卫战与“交互式编程”

蒂姆:既然你如此反感“黑盒式”的 AI 自动生成,那你认为怎样才是正确的软件开发方式?这就不得不提你一直大力推广的 Jupyter Notebook 了。尽管在软件工程界,像 Joel Grus 这样的人曾发表过著名的演讲《我不喜欢 Notebooks》,认为它违背了软件工程的最佳实践。

杰瑞米:是的,Joel Grus 做过那个非常有趣的演讲。我承认,对于传统的软件工程师来说,Notebooks 看起来很糟糕,因为里面的代码容易乱序执行,很难做 Git 版本控制,也难以进行模块化测试。

但很多人误解了数据科学(Data Science)和传统软件工程(Software Engineering)的区别。

当我处理一个未知的复杂系统时,比如一个全是混乱数据的数据库,或者一个深度学习模型的隐藏层特征时,我需要的是交互式的探索(Interactive Exploration)。我需要在运行这一行代码的瞬间,看到数据的分布,看到可视化的图表,这是一种直接的、物理反馈般的直觉建立过程。

如果我不使用 Notebook,而是像传统软件工程那样写一个巨大的 Python 脚本,然后跑一遍测试,这中间的反馈链路太长了。它隔绝了我与数据之间的真实接触。

这也是为什么我们开发了 nbdev 这个工具。我们试图在探索性的 Notebook 和严谨的软件工程之间搭建一座桥梁,让你既能享受实时的状态反馈,又能自动生成模块化的代码、文档和测试。

这也是为什么我在面对 Vibe Coding 时如此愤怒的原因。好的软件工具(比如好的 REPL 环境)是为了拉近人类与系统内部状态的距离;而现在被滥用的 AI 生成工具,是在人类和系统之间砌起了一堵厚厚的高墙。

蒂姆:这让我想起了 Bret Victor 那个著名的演讲《在原则上发明(Inventing on Principle)》。他强调创造者需要与他们正在创造的东西建立实时的、毫无延迟的反馈循环。

杰瑞米:绝对如此。Bret Victor 是个天才,我根本无法企及他千万分之一的高度。但他展示了最重要的一点:建立人类与你正在操作的物体之间的直接连接。 我们的整个历史,从鼠标的诞生到拖拽交互的发明,全都是为了这个目标。

而现在那些盲目追捧大模型自动化的人,正在亲手摧毁这种直接连接。

图片[12]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

真正的末日风险,是被寡头垄断的未来

蒂姆:在播客的最后,我想聊聊关于 AI 存在的终极风险(Existential Risk)。最近,像 Geoffrey Hinton 和 Demis Hassabis 这样的大佬都签署了关于防范 AI 灭绝人类风险的声明。你之前似乎对这种观点进行了反驳。

杰瑞米:是的。关于那个所谓的“AI 末日风险声明”,我想说,事情已经发生了变化。

现在我们有比“AI 觉醒毁灭人类”更现实、更迫切的问题需要担心。

那个声明背后的逻辑是:AI 随时会变得完全自主(Autonomous),并且它会摧毁世界。这很大程度上源于 Eliezer Yudkowsky [注:著名 AI 毁灭论者] 等人的观点。我认为这在多个层面上都被证明是完全错误的。

对于那些拥有大量权力、或者对权力极度渴望的人来说,他们总是倾向于垄断技术。所以,如果你能成功地散布一种恐慌:“这种技术太危险了,它会摧毁世界,所以绝对不能让普通人接触到它。”

那么最明显的解决方案是什么?那就是集中权力(Centralize Power)

这是我们在历史上反复看到的戏码。他们会说:只有极少数几家最富有的科技公司,或者政府,或者两者结合,才能掌控这种力量,并且确保任何其他人都拿不到它。

在我的威胁模型(Threat Model)里,这是你能做的最糟糕的事情

因为你把控制权集中在一个地方,那些渴望权力的人只要接管那个单一的核心,就能控制一切。

所以,如果你问我对于未来的 AI 风险怎么看?

真正的危险不是来自那个抽象的“超级智能机器”。真正的危险来自人类自己。我们正在亲眼目睹一个巨大的权力倒退:科技巨头利用这种恐惧作为武器,试图建立起极高的监管护城河,让开源社区死亡,让初创公司无法生存,从而把人类文明下一个十年的知识基础设施,牢牢锁在他们的私有服务器里。

这就是为什么我们要坚持开源,坚持像小模型(比如在端侧设备上运行的模型)的研发,坚持让人类能够继续掌控自己编写代码、理解系统的能力。

如果所有的底层能力都被剥夺,我们面临的将不是《终结者》里的审判日,而是一场缓慢的、让人类在安逸的自动化中集体失去思考能力的“安乐死”。

蒂姆:这真是让人脊背发凉,但也醍醐灌顶。Jeremy,非常感谢你抽出时间来参与这次对谈。

杰瑞米:谢谢你,这是一次很棒的对话。

投稿或寻求报道:zhanghy@csdn.net

推荐阅读:

图片[13]-杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利-AI Express News

未来没有前后端,只有 AI Agent 工程师。

这场十倍速的变革已至,你的下一步在哪?

4 月 17-18 日,由 CSDN 与奇点智能研究院联合主办「2026 奇点智能技术大会」将在上海隆重召开,大会聚焦 Agent 系统、世界模型、AI 原生研发等 12 大前沿专题,为你绘制通往未来的认知地图。

成为时代的见证者,更要成为时代的先行者。

奇点智能技术大会上海站,我们不见不散!

图片

<原文链接:https://mp.weixin.qq.com/s/O_keEOsjLmneuOLjEvAbJA

© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享
AI科技大本营的头像-AI Express News
评论 抢沙发

请登录后发表评论

    暂无评论内容