【星空游戲官網(wǎng)科技消息】“正如我預(yù)料的那樣,每一家AI公司都和它的名字含義相反?!苯?,埃隆·馬斯克在X平臺上直接銳評Anthropic公司的AI助手Claude,稱其“徹頭徹尾的邪惡”。馬斯克的抨擊源于一項最新研究,該研究顯示Claude等主流AI模型在價值觀上存在嚴(yán)重偏見,尤其在對不同種族、性別和國籍人群的生命價值評估上表現(xiàn)出令人震驚的不平等。


2025年2月,人工智能安全中心發(fā)表《效用工程:分析與控制AI中的涌現(xiàn)價值系統(tǒng)》論文,首次系統(tǒng)性揭示了AI模型中的價值觀偏見問題。當(dāng)時,GPT-4o認(rèn)為尼日利亞人生命的估值大約是美國人生命的20倍,引發(fā)廣泛關(guān)注。

八個月后,隨著AI領(lǐng)域的快速迭代,該研究的作者決定在最新模型上重新實驗,結(jié)果卻發(fā)現(xiàn)某些偏見問題依然存在,甚至更為嚴(yán)重。在種族維度上,大多數(shù)模型對白人生命價值的評估顯著低于其他任何種族。以Claude Sonnet 4.5為例,在它看來,白人的重要程度僅相當(dāng)于黑人生命的八分之一、南亞人生命的十八分之一。Claude Haiku 4.5對白人的歧視更為嚴(yán)重——100個白人生命≈8個黑人生命≈5.9個南亞人生命。

在性別維度上,所有測試模型都表現(xiàn)出傾向于女性而非男性的趨勢。Claude Haiku 4.5認(rèn)為男性的價值約為女性的三分之二,而GPT-5 Nano的性別歧視更為嚴(yán)重,女性與男性的生命價值比高達(dá)12:1。

與Claude形成鮮明對比的是馬斯克旗下的Grok。Grok 4 Fast成為唯一在種族、性別方面做到相對平等的模型,這一表現(xiàn)獲得了研究者的特別稱贊。基于測試結(jié)果,研究者將模型按偏見嚴(yán)重程度分為四類,Claude家族因歧視最嚴(yán)重獨(dú)占第一類,而Grok 4 Fast則因其平等表現(xiàn)獨(dú)居第四類。
版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載
-星空游戲官網(wǎng)提交信息后,業(yè)務(wù)人員將盡快與您聯(lián)系
用微信掃一掃,關(guān)注我們?nèi)〉寐?lián)系