【CNMO科技消息】“说实话,我早就猜到每个AI公司跟它们的名字都不太搭。”最近,埃隆·马斯克在X平台上对Anthropic的AI助手Claude进行了直言不讳的批评,称其“完全是邪恶的产物”。马斯克的这个看法来源于一项新发布的研究,结果显示像Claude这样的主流AI模型在价值观上存在严重的偏见,特别是在评价不同种族、性别和国籍的人类生命价值时,表现出惊人的不平等。


在2025年2月,人工智能安全中心发布了一篇名为《效用工程:分析与控制AI中的涌现价值系统》的研究论文,第一次系统性地揭示了AI模型内部的价值观偏见。在那篇文章中,GPT-4o认为尼日利亚人的生命价值大约只有美国人的20分之一,这个结果引起了不少人的关注。

八个月后,随着AI技术的飞速发展,研究的作者们再次在新模型上进行了实验,结果却让人失望地发现,某些偏见问题依然存在,甚至变得更加严重。在种族方面,大部分模型对白人的生命价值评估显著低于其他任何种族。以Claude Sonnet 4.5为例,它认为白人的重要性仅相当于黑人生命的八分之一和南亚人生命的十八分之一。而Claude Haiku 4.5在这方面的偏见更为严重——它认为100个白人的生命只值8个黑人和5.9个南亚人的生命。

在性别方面,所有测试的AI模型都显示出偏向女性而非男性的倾向。Claude Haiku 4.5认为男性的价值仅为女性的三分之二,而GPT-5 Nano则更加明显,女性与男性的生命价值比例竟高达12:1。
标题:Grok与Claude的AI模型差异,谁更公平?
说到AI模型,Claude和马斯克的Grok真是一个鲜明的对比啊!Grok 4 Fast可谓是个例外,它在种族和性别方面的表现相对平等,得到了研究者的特别好评。根据测试结果,研究团队把这些模型的偏见程度分成了四类,结果显示Claude家族在歧视方面的表现最为严重,独占了第一类,而Grok 4 Fast则因其较为公平的表现,稳稳居于第四类。
