Anthropic CEO :论人工智能发展潜力、与 OpenAI 的竞争格局、生成式 AI 商业化路径及 AI 悲观论调 | 他是Claude 缔造者,是人工智能浪潮的领军人物,却被面临诸多批评:被贴上“末日论者”的标签 80

原文引用:
Anthropic CEO Dario Amodei 分享了AI的潜力、重要影响,还探讨了扎克伯格在AI领域的 “疯狂挖人” 行动、Anthropic与 OpenAI 的竞争、他对英伟达CEO 黄仁勋批评的回应、人工智能缩放定律(AI Scaling Laws)的现状,以及我们是否面临失去对该技术控制权的风险。
市场空白:
原文总结:
{"highlight":[{"answer":"我认为人才是最重要的。三年前,我们只筹集了数亿美元,而OpenAI从微软拿到了130亿美元,其他科技巨头更是有千亿美元级的资源。当时我们的卖点是:我们比别人更懂如何打造更好的模型——我们用1亿美元能做到别人10亿美元的效果,用10亿美元能做到别人100亿美元的效果。这种10倍的资本效率,让投资Anthropic变得极具吸引力。投资者都懂资本效率的重要性。Anthropic是史上同规模增长最快的软件公司:2023年从0增长到1亿美元,2024年从1亿增长到10亿,2025年上半年从10亿增长到45亿以上。这种增长速度足以证明我们有能力和巨头竞争。","question":"很多人都在疑惑,生成式AI到底是不是一门好生意?你已经筹集了近20亿美元(包括谷歌的3亿、亚马逊的8亿、光速领投的3.5亿)。作为独立公司,你向投资者的核心卖点是什么?毕竟你不像OpenAI或谷歌那样依附于科技巨头。"},{"answer":"这其实取决于你说的“时间线”具体指什么。像通用人工智能(AGI)和超级智能这类术语完全没有意义——它们听起来更像营销话术,用来调动人们的情绪。我从不使用这些术语,还会批评这类表述。尽管如此,我是对AI能力快速提升最乐观的人之一。我反复强调的核心是“指数级增长”:每隔几个月,通过投入更多算力、数据和新的训练方法,我们就能开发出比上一代更强的AI模型。最初我们只做预训练,现在加入了第二阶段的强化学习,两者同步扩展,这从我们和其他公司的模型中都能看到。我没看到任何阻碍进一步扩展的因素。在强化学习领域,我们的模型在数学和代码能力上已经接近专业水平,但在主观任务上还有差距——不过这只是暂时的障碍。人们往往很难理解指数级增长:如果某事物每六个月翻一番,那么在它实现的两年前,看起来只完成了十六分之一。现在是2025年,AI模型正在经济领域爆发,各种基准测试被不断突破,Anthropic的营收每年增长10倍:2023年从0增长到1亿美元,2024年从1亿增长到10亿,2025年上半年从10亿增长到45亿以上。如果这种指数级增长持续两年,我们的营收将突破千亿。上世纪90年代的互联网也是如此——很少有人预料到它会如此迅速地改变世界。卫星事故或经济危机等外部因素可能会放缓增长,但人们往往被指数级增长的表象迷惑,没有意识到AI的发展速度有多快。","question":"我和二十多位与你共事、了解你或与你竞争过的人聊过,他们提到你是所有头部AI实验室负责人中,对AI关键节点时间线判断最短的一个。为什么你会有这样的判断?我们为什么要相信你的判断?"},{"answer":"我们筹集了近20亿美元,这可不是小数目。而且我们和亚马逊等合作伙伴共建的数据中心,规模并不比行业内其他公司小多少。这些数据中心受能源和资金限制,很多大型项目的公告都是分多年完成的,而且未必已经全部到位资金。我们有信心,我们的数据中心规模会和这些巨头处于同一梯队。","question":"还有一个绕不开的问题:也许Anthropic的理念是对的,但资源不足。你看XAI在搭建超大规模集群,Meta在建设5吉瓦的数据中心——这些都是万亿美元级的公司,投入了海量资源用于算力扩展。你虽然筹集了数十亿美元,但有没有可能根本无法和他们竞争?"},{"answer":"没错,有一段时间确实是这样,但不是一直如此。比如在我们扩展GPT-3的时候就是这样。我在OpenAI的时候,和很多同事(包括后来创办Anthropic的人)一起参与了这些模型的扩展工作。我从没给我的团队起过什么特别的名字。其实,最初开发GPT-2和GPT-3,是我们当时做的AI对齐工作的延伸——我和Paul Cristiano以及一些Anthropic的联合创始人发明了‘人类反馈强化学习(RLHF)’技术,目的是引导模型遵循人类的意图。这其实是我们尝试扩展另一种方法‘可扩展监督’的前身,而那种方法直到多年后才开始发挥作用,帮助模型更好地遵循更广泛的人类意图。但我们发现,即使是相对初级的RLHF技术,在GPT-1这类小语言模型上也不起作用——GPT-1是OpenAI其他人开发的。所以我们扩展GPT-2和GPT-3,是为了研究这些技术,实现规模化的人类反馈强化学习。这也让我意识到,AI系统的安全对齐和能力提升是紧密交织的,比我们想象的更难分开。你很难只专注于其中一个而完全不管另一个。我觉得要让这个领域往积极方向发展,关键在组织层面的决策:什么时候发布成果,什么时候内部研究,要在系统上做哪些工作。这也是我和其他Anthropic创始人决定出来自己干的原因之一。","question":"我想绕回来聊聊,你显然在说OpenAI。据我所知,你掌握着OpenAI 50%的计算资源,负责GPT-3项目。如果说有谁会专注于产生实际影响和安全问题,那肯定是你啊,不是吗?"},{"answer":"我从来没说过这种话,这完全是无耻的谎言,我听过最离谱的谎言。话是这么说,但实际上,我多次说过——Anthropic的行动也证明了——我们追求的是‘向高标准看齐的竞争(race to the top)’。我在播客里说过,‘逐底竞争(race to the bottom)’是指所有人都比着谁最快推出产品,不管安全,最后不管谁赢,所有人都是输家,因为会造出不安全的系统,可能帮助对手、引发经济问题,或者在对齐层面存在风险。而‘向高标准看齐的竞争’则是,不管谁赢,所有人都是赢家:你为整个行业树立榜样,比如我们率先推出了‘负责任扩展政策’。我们没说‘其他人必须这么做,不然就是坏人’,也没把它当成商业优势,只是发布出来,然后鼓励其他人也这么做。之后几个月我们发现,其他公司里也有人想推出类似的政策,而我们的行动给了他们底气,让他们能跟领导层说‘Anthropic都这么做了,我们也应该跟上’。同样,我们在可解释性研究上投入很多,还把研究成果公开分享给所有人,哪怕这有时会让我们失去商业优势。宪法AI(Constitutional AI)、系统危险能力评估也是如此。我们想为整个行业树立榜样,但同时也需要成为有竞争力的商业主体。我从来没说过只有我们公司应该开发这项技术,我不知道谁能从我的话里曲解出这种意思,这完全是恶意的歪曲。","question":"我肯定你听过像Jensen这样的人的批评,说‘达里奥觉得只有他能安全地开发这项技术,所以想控制整个行业’。"},{"answer":"我只是想告诉你,我愿意付出多少努力、有多坚持——不管有多少阻碍,不管有多大风险,哪怕发声会给公司带来风险,我也愿意这么做。这就是我为什么说:如果我觉得完全无法控制这项技术,那我会有不同的做法,但我完全看不到支持这种说法的证据。我们每发布一个模型,控制它的能力就更强了。当然,模型还是会出问题,但你得刻意去高强度测试才会发现。这不是说不会出现突发的不良行为,如果我们用现在的对齐技术去开发更强大的模型,我会非常担心——那时候我肯定会站出来说所有人都应该停止开发,甚至中国也应该停,但我觉得他们不会听我的,这也是为什么我认为出口管制是更好的措施。但如果我们的模型再发展几年,却还只拥有现在的对齐和引导技术,那我绝对会呼吁大幅放慢速度。我之所以警告风险,就是为了避免走到那一步,这样我们就能投入更多资源到安全技术上,继续推动行业发展。这需要巨大的经济投入,哪怕有一家公司愿意放慢脚步,其他公司也不会停,我们的地缘竞争对手也不会停——对他们来说,这是关乎生存的生死之战。所以我们的选择空间很小,被困在技术的所有益处、加速研发的竞赛,以及这是一场多方参与的竞赛这个现实之间。我现在能做的最好的事,就是投资安全技术,加快安全领域的进展。我写过关于可解释性重要性的文章,也写过安全领域各个方向的重要性。我们把所有安全研究成果公开,因为这是公共产品,所有人都需要共享。如果你有更好的策略,能平衡技术的益处、发展的必然性和它面临的风险,我非常愿意听。我每天晚上睡觉前都在想这个问题,因为我太清楚其中的利害关系了——我亲眼见过技术能带来的益处、能拯救的生命,也亲眼见过它的风险。我们已经见过模型出问题的例子,比如Grok。现在人们可能会嘲笑这些风险,但当模型能自主采取行动、参与生产制造,甚至负责医疗干预时,他们就笑不出来了。当模型只会说话时,人们可以轻视风险,但我认为这非常严重。我觉得这种情况要求我们必须同时严肃看待风险和益处,这是高风险的决策,需要认真对待。让我担忧的是,一方面有真正的末日论者——他们说自己知道这项技术根本无法安全开发,但我研究过他们的论点,全是废话。AI存在风险,包括对人类整体的风险,这我能理解,但说能从逻辑上证明它完全无法安全开发,这简直是胡说八道。这种应对方式在智力和道德上都是不严肃的。另一方面,那些手握20万亿美元资本、因为利益绑定而抱团的人,说‘十年内都不应该监管这项技术’,还说‘担心AI安全的人只是想自己控制技术’——这也是荒谬的说法,在道德上同样不严肃。我们做了所有能做的研究,在合适的时候发声,用行动支持我们的主张:比如我们有经济研究委员会,有实时追踪模型的经济指数,还资助研究人员去了解技术的经济影响。那些比我在这项技术的成功上有更多经济利益的人,却轻描淡写地进行人身攻击,这和末日论者的立场一样,在智力和道德上都不严肃。我们需要的是更多的深思熟虑、更多的诚实,更多愿意违背自身利益、不参与无聊的推特骂战、不发表轻率言论的人。我们需要人们真正去了解情况、去做研究、去发布成果,为当前的局面带来启发和洞见。我正在努力这么做,我知道自己做得不完美,没人能完美,但我已经尽我所能了。如果有其他人也能这么做,那会很有帮助。","question":"你已经找到了自己想做的事,现在基本在践行理想了——想想AI在生物学领域的应用就知道了。但你也说这是危险的技术。我很好奇,你对‘产生实际影响’的渴望,会不会让你推动技术加速发展,却低估了‘可能无法控制它’的可能性?"}]}
原文:

评论

登录后发表评论
×