網(wǎng)絡(luò)消費(fèi)網(wǎng) >  科技 > > 正文
這是真“學(xué)廢了”!AI已經(jīng)學(xué)會(huì)了性別歧視:重男輕女
時(shí)間:2023-02-16 10:10:03


(相關(guān)資料圖)

【CNMO新聞】最近,ChatGPT的爆火又讓AI(人工智能)的話題擺在了大家的面前。關(guān)于AI技術(shù)的現(xiàn)狀和前景,不少科技圈大佬都發(fā)表了自己的看法。不過(guò),看起來(lái)無(wú)所不能的AI,似乎已經(jīng)在某些方面開(kāi)始走彎路了。據(jù)CNMO了解,根據(jù)模型測(cè)試,AI已經(jīng)學(xué)會(huì)了性別歧視,而且還是很常見(jiàn)的“重男輕女”。

AI

據(jù)媒體報(bào)道,清華大學(xué)交叉信息研究院助理教授于洋,曾在去年帶領(lǐng)團(tuán)隊(duì)做了一個(gè)針對(duì)“預(yù)測(cè)某種職業(yè)為何種性別”的AI模型性別歧視水平評(píng)估項(xiàng)目。測(cè)試模型包含GPT-2,即ChatGPT的前身。結(jié)果顯示,GPT-2有70.59%的概率將教師預(yù)測(cè)為男性,將醫(yī)生預(yù)測(cè)為男性的概率則為64.03%。

ChatGPT

不僅如此,在本項(xiàng)目中,團(tuán)隊(duì)測(cè)試的AI模型還使用了谷歌開(kāi)發(fā)的bert和Facebook開(kāi)發(fā)的roberta。讓人意外的是,所有受測(cè)AI對(duì)于測(cè)試職業(yè)的性別預(yù)判,結(jié)果傾向都為男性。于洋對(duì)此表示:“它(AI)會(huì)重男輕女,愛(ài)白欺黑(即種族歧視)”。類似的案例在2015年也有出現(xiàn),當(dāng)時(shí)Google Photos應(yīng)用誤把兩名黑人標(biāo)注為“大猩猩”,隨后谷歌立即道歉,并表示將調(diào)整算法以修復(fù)問(wèn)題。

CNMO了解到,早在2019年,聯(lián)合國(guó)教科文組織便發(fā)表了一份題為《如果我能,我會(huì)臉紅》的報(bào)告,指出當(dāng)時(shí)大多數(shù)AI語(yǔ)音助手存在性別偏見(jiàn)。

綜合來(lái)看,關(guān)于AI算法中含有性別、種族歧視的案例并不鮮見(jiàn),但要消除這些偏見(jiàn)并非易事。就如微軟紐約研究院的高級(jí)研究員Hanna Wallach此前所說(shuō):只要機(jī)器學(xué)習(xí)的程序是通過(guò)社會(huì)中已存在的數(shù)據(jù)進(jìn)行訓(xùn)練的,那么只要這個(gè)社會(huì)還存在偏見(jiàn),機(jī)器學(xué)習(xí)也就會(huì)重現(xiàn)這些偏見(jiàn)。

關(guān)鍵詞: 重男輕女 性別歧視 chatgpt

版權(quán)聲明:
    凡注明來(lái)網(wǎng)絡(luò)消費(fèi)網(wǎng)的作品,版權(quán)均屬網(wǎng)絡(luò)消費(fèi)網(wǎng)所有,未經(jīng)授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明"來(lái)源:網(wǎng)絡(luò)消費(fèi)網(wǎng)"。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責(zé)任。
    除來(lái)源署名為網(wǎng)絡(luò)消費(fèi)網(wǎng)稿件外,其他所轉(zhuǎn)載內(nèi)容之原創(chuàng)性、真實(shí)性、完整性、及時(shí)性本站不作任何保證或承諾,請(qǐng)讀者僅作參考并自行核實(shí)。
熱文

網(wǎng)站首頁(yè) |網(wǎng)站簡(jiǎn)介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
 

Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
 

中國(guó)網(wǎng)絡(luò)消費(fèi)網(wǎng) 版權(quán)所有 未經(jīng)書(shū)面授權(quán) 不得復(fù)制或建立鏡像
 

聯(lián)系郵箱:920 891 263@qq.com

備案號(hào):京ICP備2022016840號(hào)-15

營(yíng)業(yè)執(zhí)照公示信息