訂閱
糾錯
加入自媒體

AI的多元化危機:研究報告吐槽人工智能領(lǐng)域過于“白人直男癌”

AI Now 研究所在今日發(fā)布的一份報告中稱,人工智能行業(yè)面臨著“多樣化危機”,并且直指該領(lǐng)域方向的“關(guān)鍵問題”。 報告發(fā)現(xiàn),女性和有色人種在 AI 領(lǐng)域的比例嚴(yán)重不足,約 80% 人工智能教授性別為男性。即便是 Facebook 和 Google 這樣的大公司,也只有大約 10% 的女性 AI 研究人員,更別提有色人種只占其中的一小部分了。

報告截圖(來自:AI Now | PDF ,via TheVerge )

AI Now Institute 聯(lián)席主管 Meredith Whittaker 一針見血地指出,在打造影響其他人群的工具上,AI 領(lǐng)域缺乏多樣性、過于“白人直男癌”了。

更糟糕的是,通過修復(fù)潛在求職者“渠道”來改善問題的方案,很大程度上也都失敗了。 研究人員寫到:“經(jīng)過數(shù)十年的管道研究、評估了從學(xué)校到行業(yè)的各類求職者流動,AI 領(lǐng)域在多樣性上并未取得實質(zhì)性進(jìn)展”。

為此,AI Now Institute 提出了一些改善問題的建議,比如企業(yè)能夠發(fā)布更多按照種族和性別劃分的補償數(shù)據(jù),以及通過公布騷擾/歧視報告,來提升透明度。

有觀點指出, 盡管多樣性是科技行業(yè)難以逾越的鴻溝,但其在 AI 領(lǐng)域埋下的風(fēng)險卻要大得多, 尤其是某些潛在含有偏見的技術(shù)(比如面部識別),可能會不成比例地影響歷史上被邊緣化的那部分群體。

其實早在 2017 年,就有面部掃描識別程序存在不公正現(xiàn)象的批評。但除了更加嚴(yán)格的測試,AI 工具的制造商們,也必須切實最好風(fēng)險規(guī)避,將這些系統(tǒng)打造得既安全又公平。

早前亞馬遜因 Rekognition 面部識別技術(shù)存在偏見而遭到炮轟,谷歌也在各界壓力傳導(dǎo)下成立了人工智能審查委員會。

研究人員指出,“ 人工智能中領(lǐng)域的多樣性危機,已有詳細(xì)記錄且造成了廣泛的影響, 涉及行業(yè) / 學(xué)術(shù)領(lǐng)域的不平等、招聘 / 晉升差異、反映和擴大有偏見的觀念、以及自動化系統(tǒng)中的生物識別等方面”。

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號