
2026 年春天,达里奥 · 阿莫迪(Dario Amodei)突然变成了硅谷讨厌鬼。
黄仁勋就差直接点名阿莫迪了,猛烈批评那些不断预言 AI 将大规模消灭工作的 CEO 是患上了"上帝情结":旦成了 CEO,就很容易以为自己什么都知道。奥特曼说阿莫迪用"恐惧"做营销,杨立昆干脆说他不懂技术革命如何影响就业。
奥力斯 保温护角专用胶批发 联系人:王经理 手机:13903175735(微信同号) 地址:河北省任丘市北辛庄乡南代河工业区
就连媒体也开始追问:个不停警告世界末日的 AI 大佬,为什么自己还不停下?
阿莫迪得罪人,当然不仅仅是因为他道德感太而情商又太低。
微妙的是,他确实长期相信 AI 风险,也确实把这种信念变成了 Anthropic 锋利的商业武器。
这从 OpenAI 出走后成立的公司,已经不再只是个着" AI 安全"旗号的研究型团队。Claude Code 成了企业 AI 市场凶猛的产品之,年化收入跑到数十亿美元别。夸张的是,据 Business Insider 报道,Anthropic 在私募二市场的估值已突破 1 万亿美元。
当个人边站在道德地上提醒所有人慢点,边又在赛场中央下注,而且越下注越大,他就很难不变成靶子。
01
全民公敌
阿莫迪正在成为 AI 行业里让人不爽的人。
新个开火的人,是黄仁勋。
在档播客里,黄仁勋把那些动辄预言 AI 将造成大规模失业、甚至带来人类灭风险的科技 CEO,称作患上了"上帝情结"。
他的大意是,旦坐到 CEO 的位置上,人就很容易开始以为自己什么都懂。可关于 AI 的公共讨论,应该回到事实,而不是被夸张的末日叙事牵着走。
这番话没有点名,但很难不让人想到阿莫迪。
而这已经不是黄仁勋次被阿莫迪的 AI 风险叙事惹到。
阿莫迪直支持严格的芯片出口管制,还门写过长文呼吁加强限制。今年在达沃斯论坛上,他把向出口 AI 芯片,类比成"核武器"。
黄仁勋当然不会接受这个说法。
在另档播客里,黄仁勋被问到这个类比时,直接说这实属"荒唐"。他认为,把 AI 芯片和核武器相提并论,是个很差,也不逻辑的类比。
如果说黄仁勋的反击,来自英伟达和 Anthropic 在芯片政策上的直接利益冲突,那么 OpenAI 的攻击就像是老对手之间的正面交锋。
在次播客对谈中,奥特曼称 Anthropic 正在用"恐惧"做营销。
他用了个颇为刻薄的比喻:这就像有人说广元保温护角专用胶,我们造了颗炸弹,马上要扔到你头上,然后我们可以你个亿美元的空洞。
这句话很明显指向 Anthropic 刚刚发布的 Claude Mythos Preview。按照 Anthropic 自己的说法,这个网络安全模型能力太强,暂时不会对公众开放,而是先放进个名为"玻璃之翼"的项目里,为作机构做御安全工作。
来自 OpenAI 的"攻击"还不止这次,4 月 13 日,The Verge 披露了 OpenAI 席营收官丹妮丝 · 德雷瑟(Denise Dresser)发给员工的份四页内部备忘录。备忘录主题是如何赢下企业 AI 市场,但其中门拿出段讨论 Anthropic,几乎是在逐条拆对手的台。
其中写道,Anthropic 的故事建立在"恐惧、限制,以及少数精英应该控制 AI 的观念"之上。
她还说,Anthropic 过度依赖代码场景,力储备不足,并质疑其年化收入说法,称 Anthropic 把与亚马逊、谷歌的收入分成按总额计入,致其 300 亿美元年化收入被估了大约 80 亿美元。
阿莫迪和奥特曼是老冤,OpenAI 和 Anthropic 是直接竞争对手;黄仁勋的芯片生意,也直接被阿莫迪的政策主张波及。他们的反击看起来都有迹可循。
但这还没完。
杨立昆(Yann LeCun)也在 X 上公开怼过阿莫迪。这次,争议来自 AI 对就业的影响。
2025 年,阿莫迪接受 Axios 采访时说,AI 可能在未来到五年内消灭半初白岗位,并把失业率到 10 到 20。他还说,AI 公司和监管机构不能继续粉饰、不能把即将到来的冲击说得太轻。
针对阿莫迪关于就业的判断,杨立昆在 X 上说:"达里奥是错的""他对技术革命如何影响劳动力市场所知"。他甚至说,这类问题应该多听经济学的,而不是 AI 圈的任何人的,包括杨立昆自己在内。
就连舆论也开始出现些质疑的声音。
仅就来自知名媒体的评论举例:《泰晤士报》质疑警告世界末日的 AI 大佬为什么自己不停下来,TechCrunch 则点出,Anthropic 限制 Mythos 开放,表面是保护互联网安全,但这种选择开放也可能帮助它锁住大企业客户、阻止小公司通过蒸馏复制能力,从而保护自己的商业利益。
很明显,阿莫迪带着 Anthropic,占了某种道德地。但越是站在地上,就越成为了被攻击的靶子。
问题在于,仅仅是因为阿莫迪太有原则、太坚持"安全",不惜得罪人,所以才被反过来攻击吗?
阿莫迪越是用力地当"道德标兵",他身上的个道德悖论就越刺眼——他站在赛场中央,边下注,边提醒所有人这场比赛可能有毒。
这实在太别扭了。
02
"安全大"的来时路
备忘录里,OpenAI 席营收官丹妮丝提到了个词:"精英"。
这确实是阿莫迪身上醒目的标签之。
他那场站在道德地上的对决,也几乎成了他声望的——面对美国战争部的要求,Anthropic 拒放宽 Claude 的使用边界,坚持不允许其被用于大规模监控,也不允许用于没有人类参与决策的自主武器。
阿莫迪当时说,他们"出于良心不能答应"这个要求。那刻,公众的欢呼里,多少带着种久违的释放,硅谷精英终于又次站出来,对大的权力说了"不"。
要搞懂这个"安全大"从何而来,还是得往回看他的来路。
阿莫迪 1983 年出生在旧金山。父亲是意大利裔皮革匠,来自托斯卡纳,长期受健康问题困扰,在阿莫迪年轻时去世;母亲是出生于芝加哥的犹太裔美国人,曾做图书馆项目经理。
阿莫迪从小就是标准的理科子生。他读的是旧金山有名的公立精英中之,2000 年入选美国物理奥林匹克队。上大学后,他了加州理工学院——也就是美国顶的理工科名校之,后来转到斯坦福,拿到物理学本科,后又去普林斯顿读完了生物物理博士。
他是物理、经科学、AI 研究多维融的技术型人物,这也决定了他的复杂视角。
2014 年,吴恩达把阿莫迪招进百度在硅谷的人工智能实验室,参与语音识别系统的研究。后来他成为 Deep Speech 2 论文作者之,这套系统主端到端语音识别,覆盖英语和普通话,也试图用大规模的数据、力和训练重走传统语音识别流程。也就是在这段时间里,阿莫迪开始形成对"规模化"的早期直觉。他后来在访谈中回忆,当时发现,当模型大、数据多、训练时间长时,果会持续变好。对他来说,后来贯穿 GPT、Claude 这代大模型的 Scaling 信仰,在百度做语音识别时就已经埋下了伏笔。
丹妮拉 · 阿莫迪(Daniela Amodei)也是个重要角。她同样从 OpenAI 出走,兄妹俩共同创办 Anthropic。
兄妹俩形成双核结构。阿莫迪像技术路线和安全叙事的代表,丹妮拉则多承担公司运营、组织建设和商业进。Anthropic 今天这种奇特气质——边像安全研究机构,边又是速融资、速扩张的 AI 公司——很大程度上就来自这组搭档。
这种族纽带也给 Anthropic 带来种特别的稳定感,使这公司像个从旧组织里分裂出来的小团体,带着强烈的自我认同,认为自己要用另种式做 AI。
2020 年底,OpenAI 发布了篇非常客气的组织新,宣布时任研究总裁阿莫迪即将离开。文章感谢他近五年的贡献,提到他参与 GPT-2、GPT-3,并与苏茨克维(Ilya Sutskever)等人共同设定研究向。
微妙的是,OpenAI 还写道,阿莫迪和几位同事计划开启个新项目,这个项目"可能会少关注产品开发,多关注研究"。而其他大部分篇幅,用来表明 OpenAI 自己在安全域的决心。
多年后,当 Anthropic 和 OpenAI 的矛盾公开化之后,人们回溯当年的友好"分手",不难看出双对于 AI 能力增长和安全边界应该如何排序,早已存在分歧。
几个月后,Anthropic 成立。此后,安全从阿莫迪的个人立场,慢慢变成了这公司的骨架。
它有 RSP,也就是《负责任扩展政策》(Responsible Scaling Policy),用 ASL 等给不同能力阶段的模型设置风险要求,泡沫板橡塑板专用胶有点像 AI 版的生物安全等;它通过套"宪法"原则引模型行为;它还持续投入可解释研究,试图开模型黑箱。
阿莫迪当然在利用"安全",但前提是,他也确实长期相信安全。从 OpenAI 出走,到创立 Anthropic,再到 RSP、AI "宪法"、可解释、模型风险分、国同边界,他的行为颇具长期致。
这也是阿莫迪复杂的地。
他身上有种很强的精英自信——我看见了大的风险,所以我有资格提醒所有人慢点、严点、怕点。可同样是这种自信,让他显得居临下。
而当阿莫迪开始经营商业公司,当"道德"遇上商业,精妙的平衡加难以维持。
03
当"安全"变成公司主线
"安全"既是 Anthropic 的生意,也是筛选机制。
Anthropic 的特殊之处在于,它从开始就是群人从 OpenAI 出走后组建的新组织,出走的理由里有技术路线,也有安全理念广元保温护角专用胶,还有对"谁应该定义 AI 未来"的分歧。
所以文化在 Anthropic 显得格外重要,像套操作系统。
阿莫迪是个带着研究员气质的组织设计者。他曾在访谈里说,自己大概三分之,甚至 40 的时间,都花在确保 Anthropic 的文化是好的上。
Anthropic 表面上总在讲谨慎、克制、边界,但内部并不是种温吞水文化。相反,Anthropic 公司内部有种类似个人公开笔记本的 Slack 频道,员工会在里面写自己的想法、工作进展,甚至直接和阿莫迪展开辩论。
可以想见,不管是 Anthropic 的准入门槛还是内部文化的不断塑造与碰撞,都形成了对人才的某种筛选机制。
过去年,Meta 为了补强 AI 团队,到处挥舞支票本挖人。AI 行业的人才价格被抬到夸张程度,顶研究员和工程师几乎变成了自由市场上的球星。面对这种挖角,些公司本能地"跟价",至少是明确地表示要提员工薪酬,先把人留下来再说。
阿莫迪没有这么做。他公开解释过,Anthropic 不会因为外部公司给某个人开了天价 offer,就立刻破自己的薪酬原则。他说,如果扎克伯格像扔飞镖样随机击中某个人的名字,那并不意味着这个人就应该比旁边同样优秀的同事多拿十倍。
有意思的是,阿莫迪表示,有些 Anthropic 员工面对 Meta 的挖角,甚至连扎克伯格都不愿意聊。这句话里当然有炫耀的成分。但它真正想传递的是 Anthropic 员工的"共识"是存在且牢固的。
阿莫迪须让员工相信,Anthropic 不是另只想跑得快的 AI 公司;同时,他又须带着这公司真的跑得足够快。否则,安全叙事再漂亮,也只会变成赛场边上的道德评论。
"安全"作为生意,成绩斐然。
Anthropic 从开始就吸引那些对可靠、可控要求的客户。Claude 刚出时就强调可靠、可预测和可引,早期作伙伴就是 Notion、Quora、DuckDuckGo、Juni Learning 这类知识生产、搜索、教育和工作流工具。
Anthropic 的不是"便宜的模型"。企业、政府、代码、金融、医疗、教育、公共部门——这些客户在意稳定、规、安全边界和长期责任。价格上也能看出来,Claude 并不是低价路线。Claude Opus 4.7 的价格是每百万输入 tokens 5 美元、输出 25 美元;Claude Sonnet 4.6 是输入 3 美元、输出 15 美元。相比之下,xAI 的 Grok 4.20 是输入 2 美元、输出 6 美元,明显激进;OpenAI 的 GPT-5.5 则是输入 5 美元、输出 30 美元,和 Claude Opus 处在同价区间。
Reuters 此前也报道,Anthropic 拥有过 30 万商业和企业客户,这些客户贡献约 80 的收入。企业客户按用量付费,留存稳定,扩张空间也大,旦进入代码、办公流、云平台和政府系统,收入就不是普通订阅产品能比的。
与之相比,OpenAI 靠 ChatGPT 在 C 端出了大的声量,也确实把大众用户教育到了前所未有的规模;但 C 端用户多,不等于收入结构好。
OpenAI 自己新说法是,企业收入已经过总收入的 40,并希望到 2026 年底追平消费端。换句话说,即便是 OpenAI,也正在拼命往企业市场努力。
Anthropic 和美国战争部 DoW 的作是典型例证,很长段时间里,Anthropic 都是 DoW 在"机密域"唯作的 AI 公司。Claude 被用于情报分析、建模与仿真、作战规划、网络行动等任务。
顺着这个思路,回看 Anthropic 与 DoW 之间的激烈"斗争",足见阿莫迪将安全作为生意的功力——通过对"大规模监控""自主武器"底线的强调,即便丢了与 DoW 之间的作,却让 Anthropic 的公众知名度与"可靠度"上个台阶,在资本市场获得了前所未有的青睐。
Anthropic 的年化收入从 2025 年底的 90 亿美元,冲到 2026 年 4 月的 300 亿美元量;今年 2 月,它以 3800 亿美元估值完成 300 亿美元融资,随后 Google 又计划向其投入 400 亿美元。有报道指出,其在二市场的估值已经达到了 1.1 万亿美元的规模。
安全听起来像种克制,但在 Anthropic 它后变成了种的商业语言。
但这套理术当然有它危险的面。
当公司把"安全"变成组织信仰,它就会获得种道德优越感,也容易把竞争对手衬托成不负责任的人,把商业选择包装成价值选择。
这也是为什么 Anthropic 越成功,阿莫迪越让人不舒服。
04
"安全"的两面
如果仅仅将阿莫迪看作个因为有理想有底线但情商低、因此总是说大实话得罪人的"理工男",未有点天真。
《华尔街 · 日报》曾有篇文章,回溯阿莫迪和奥特曼之间的 10 年恩怨。
阿莫迪在 OpenAI 的故事远不是句"安全理念分歧"能解释。
2018 年,马斯克退出后,阿莫迪同意留下的条件是布罗克曼(联创之)和苏茨克维不得掌权——他先谈的是权力分配,而非技术路线。
随后在关键的模型项目里,他和妹妹丹妮拉联手,把想加入的布罗克曼挡在门外,理由之是某位核心研究员"不想与之共事"。这位研究员事后形容自己被管当成"代理人武器",可见阿莫迪非常懂得借人结盟。
随着 GPT-2/3 走红,他对功劳归属和曝光度发敏感:不满布罗克曼在播客里"风头",发现奥特曼和布罗克曼准备去见奥巴马却没带自己,是当场发火。
次年他要求升任研究总裁,奥特曼同意,并在董事会邮件中附带句"阿莫迪承诺不再贬低他不认可的项目",俨然项停火条款。
这些细节说明,安全是阿莫迪的信条,也是把锋利的组织武器。他会谈条件、争项目、夺话语权,把"风险"话术用来界定谁能留在核心。
终离开 OpenAI 创办 Anthropic,与其说是理想出走,不如说是内部夺权失利后,将战场外移。
当他掌舵 Anthropic 之后,情况变得加复杂。Anthropic 不再是研究室里的理想实验场,而是艘速增长的商业战舰。这个时候,安全就从纯原则,变成了实实的产品点。
Anthropic 越是调强调 AI 风险,越能凸显自己的存在要;越是点名别人跑得太快,越能把自己包装成企业、政府和监管者可靠的伙伴。
它的叙事带着种道德比较,即选 Claude,不只是挑了个模型,也是在选择条负责、可控的路线。
对竞争对手来说,这就很烦人了。你产品也就罢了,还顺手把别人衬得像不负责任的赌徒。安全成了差异化护城河,也成了营销利器。企业客户愿意为"安心"多付钱,政府部门也容易把敏感项目交给"安全"的那。
在这个过程中,安全也同时变成了种政筹码。
Axios 报道,2026 年季度,Anthropic 联邦游说支出达到 160 万美元,过 OpenAI 的 100 万美元,也创下自身纪录;此前它还宣布向个主 AI 透明度和安全护栏的两党倡议组织投入 2000 万美元,并计划扩充政策团队、在华盛顿设立长期办公室。
说白了,阿莫迪已经在争夺 AI 时代的游戏规则。
阿莫迪的复杂,正在于这两件事可能同时成立:他确实相信 AI 安全,也确实把 AI 安全变成了 Anthropic 锋利的商业武器。安全既是他的信仰,也是他的权力杠杆。
原则和利益并非简单对立,而是互相喂养、互相强化。正是这种真假交织的状态,才让他既被捧为"安全大",又被些人视为精明的操盘手。
Anthropic 越会解释风险,越有机会定义风险;越有机会定义风险,越能把自己放进 AI 时代的规则中心。
这是属于阿莫迪的"安全魔法",而"全民公敌",就是玩魔法的备作用。
也许他甘之如饴。
相关词条:不锈钢保温 塑料管材设备 预应力钢绞线 玻璃棉板厂家 pvc管道管件胶1.本网站以及本平台支持关于《新广告法》实施的“极限词“用语属“违词”的规定,并在网站的各个栏目、产品主图、详情页等描述中规避“违禁词”。
2.本店欢迎所有用户指出有“违禁词”“广告法”出现的地方,并积极配合修改。
3.凡用户访问本网页,均表示默认详情页的描述,不支持任何以极限化“违禁词”“广告法”为借口理由投诉违反《新广告法》,以此来变相勒索商家索要赔偿的违法恶意行为。
