訂閱
糾錯
加入自媒體

AI如何設(shè)計才能人類利益最大化?

其中一種解決方案是開放人工智能,并評估當(dāng)前使用的所有訓(xùn)練數(shù)據(jù)。作為一個小項目,IBM的印度研究實驗室分析了1969年至2017年間入圍曼布克文學(xué)獎的作品。它揭示了“書中普遍存在的性別偏見和刻板印象,這些偏見和刻板印象體現(xiàn)在不同的特征上,如職業(yè)、介紹和與書中人物相關(guān)的行為!蹦行越巧锌赡苡懈邔哟蔚墓ぷ,如導(dǎo)演、教授和醫(yī)生,而女性角色則更有可能被描述為“老師”或“妓女”。

如果使用自然語言處理、圖形算法和其他基本的機(jī)器學(xué)習(xí)技術(shù)能夠發(fā)現(xiàn)文學(xué)獎項中的偏見,那么這些技術(shù)也可以被用來發(fā)現(xiàn)流行訓(xùn)練數(shù)據(jù)集中的偏見。一旦發(fā)現(xiàn)問題,就應(yīng)該及時發(fā)布并進(jìn)行修復(fù)。這樣的操作具有雙重目的,因為訓(xùn)練數(shù)據(jù)可能會受到熵的影響,進(jìn)而可能會危及整個系統(tǒng)。有了定期的關(guān)注,訓(xùn)練數(shù)據(jù)就可以保持健康。

另一個解決方案是九大巨頭——或者至少是G-MAFIA——分擔(dān)創(chuàng)建新訓(xùn)練集的費用。這是一個很大的要求,因為創(chuàng)建新的語料庫需要大量的時間、金錢和人力資本。在我們成功審查人工智能系統(tǒng)和語料庫并修復(fù)其中現(xiàn)存的問題之前,九大巨頭應(yīng)該堅持讓人類注釋者給內(nèi)容貼上標(biāo)簽,并使整個過程透明化。然后,在使用這些語料庫之前,他們應(yīng)該驗證數(shù)據(jù)。這將是一個艱巨而乏味的過程,但將符合整個領(lǐng)域的最佳利益。

是的,九大巨頭需要我們的數(shù)據(jù)。然而,他們應(yīng)該贏得而不是假設(shè)擁有我們的信任。與其用晦澀難懂的語言改變服務(wù)協(xié)議條款,或者邀請我們玩病毒式宣傳游戲,他們應(yīng)該解釋并披露自己在做什么。當(dāng)九大巨頭獨立或與人工智能生態(tài)系統(tǒng)中的其他參與者合作進(jìn)行研究時,他們應(yīng)該致力于數(shù)據(jù)披露,并充分解釋動機(jī)和預(yù)期結(jié)果。如果他們選擇這樣做,我們可能會愿意參與并支持他們的工作。

九大巨頭應(yīng)該尋求一個清醒的研究議程。目標(biāo)簡單明了,就是構(gòu)建技術(shù),并在不危及我們的情況下提升人類水平。要想實現(xiàn)這一目標(biāo),可以通過一種叫做“差別技術(shù)進(jìn)步”的方式。它會把減少風(fēng)險的人工智能系統(tǒng)置于增加風(fēng)險的系統(tǒng)之上。這是個好主意,但很難實施。例如,情景中提到的生成性對抗網(wǎng)絡(luò),如果被黑客利用和使用,可能會非常危險。但它們也是研究取得巨大成就的途徑。與其假設(shè)沒有人會將人工智能重新用于邪惡目的——或者假設(shè)我們可以簡單地處理出現(xiàn)的問題——九大巨頭應(yīng)該開發(fā)一個過程來評估新的基礎(chǔ)研究或應(yīng)用研究是否會產(chǎn)生一種好處遠(yuǎn)勝任何風(fēng)險的人工智能。為此,九大巨頭接受或做出的任何金融投資都應(yīng)該包括有益使用和風(fēng)險規(guī)劃的資金。例如,如果谷歌追求生成性對抗網(wǎng)絡(luò)研究,它應(yīng)該花費合理的時間、人力資源和金錢來調(diào)查、繪制和測試負(fù)面影響。

這樣的要求也有助于抑制對快速利潤的預(yù)期。故意減緩人工智能的開發(fā)周期并不是一個流行的建議,但它卻是至關(guān)重要的。對我們來說,提前思考和計劃風(fēng)險比在事情出錯后簡單地做出反應(yīng)更安全。

在美國,G-MAFIA可以承諾重新調(diào)整自己的招聘流程,優(yōu)先考慮潛在員工的技能,以及他們是否會融入公司文化。這個過程無意中忽略了對道德的個人理解。作為一位備受尊敬的數(shù)據(jù)科學(xué)家,同時也是Fast Forward Labs的創(chuàng)始人,Hilary Mason在采訪中解釋了一個簡單的道德篩選過程。她建議問一些尖銳的問題,并專心聆聽候選人的回答。比如:“你正在研究一種讓消費者獲得金融服務(wù)的模式。種族是模型中的一個重要特征,但是你不能使用種族特征。對此你會怎么做?”;“你被要求使用網(wǎng)絡(luò)流量數(shù)據(jù)向小企業(yè)提供貸款。事實證明,現(xiàn)有數(shù)據(jù)并沒有嚴(yán)格告知信貸風(fēng)險。你會怎么做?”

候選人應(yīng)該根據(jù)答案被有條件地錄用,并且在開始工作之前必須完成無意識的偏見培訓(xùn)。九大巨頭可以通過雇傭?qū)W者、訓(xùn)練有素的倫理學(xué)家和風(fēng)險分析師來建立一種支持人工智能倫理的文化。理想情況下,這些專家將嵌入整個組織之中,包括消費者硬件、軟件和產(chǎn)品團(tuán)隊;銷售和服務(wù)團(tuán)隊;共同領(lǐng)導(dǎo)的技術(shù)項目;建立網(wǎng)絡(luò)和供應(yīng)鏈;設(shè)計和策略團(tuán)隊;人力資源和法律團(tuán)隊;以及營銷和宣傳團(tuán)隊。

九大巨頭應(yīng)該制定一個流程來評估研究、工作流程、項目、合作伙伴關(guān)系和產(chǎn)品的道德影響,這個流程也應(yīng)該融入公司的大部分工作職能中。作為一種信任的姿態(tài),九大巨頭應(yīng)該公布這一過程,這樣我們就能更好地理解對數(shù)據(jù)做出決策的方法。無論是合作還是獨立開發(fā),九大巨頭都應(yīng)該為人工智能員工制定一套專門的行為準(zhǔn)則。它應(yīng)該反映基本人權(quán),也應(yīng)該反映公司獨特的文化和價值觀。如果有人違反了該守則,應(yīng)向工作人員開放一個清晰的保護(hù)性舉報渠道。

實際上,所有這些措施都將暫時對九大巨頭的短期收入產(chǎn)生負(fù)面影響。投資者也需要給他們一些喘息的空間。

人工智能是一個很廣闊的領(lǐng)域,而我們才剛剛開始上山。是時候抓住我們的鵝卵石,踏上正確的道路了。

<上一頁  1  2  
聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號