如何重塑智能化世界的信任、隱私和道德邊界?
當各個行業(yè)部署人工智能技術(shù)時,首先需要處理一些技術(shù)、倫理、可靠性和法規(guī)相關(guān)的挑戰(zhàn)。例如,在交通和汽車領(lǐng)域?qū)嵤?span id="xyfd5fn" class='hrefStyle'>人工智能時,安全和保障是主要挑戰(zhàn)之一。本期文章將探討人工智能在道德倫理方面需克服的難題,目前,除了解決相關(guān)技術(shù)、算法問題,政府和監(jiān)管機構(gòu)也需預(yù)見關(guān)鍵的倫理和社會挑戰(zhàn),并開始制定新政策予以應(yīng)對。
本文編譯自國際電工委員會(IEC)于2019年3月發(fā)布的報告《人工智能將賦能哪些行業(yè)》,報告描述了人工智能當前使用的主要系統(tǒng)、技術(shù)和算法,并指出了它們有助于解決哪些類型的問題以及面臨的主要挑戰(zhàn)。本文節(jié)選自第六章:人工智能的挑戰(zhàn)。
國際電工委員會(International Electrotechnical Commission)是世界上成立最早的國際性電工標準化機構(gòu),目前IEC的工作領(lǐng)域已由單純研究電氣設(shè)備等問題擴展到通訊、視聽、機器人、信息技術(shù)、新型醫(yī)療器械和儀表等各個方面。
【算力觀點】
機器學習的自動化決策依賴于合作伙伴間的信賴和數(shù)據(jù)質(zhì)量的保障。糟糕的數(shù)據(jù)質(zhì)量、甚至惡意的操作,都可能導致毫無價值的結(jié)果,甚至對算法的用戶產(chǎn)生負面影響。
人工智能的一大倫理挑戰(zhàn)是,當面臨道德困境時如何進行決策。一個可以被廣泛接受的倫理框架需要人類進一步研究,以便對人工智能系統(tǒng)在推理和決策時進行指導。
人工智能的數(shù)據(jù)共享系統(tǒng)引發(fā)信任挑戰(zhàn)
人們普遍認為,人工智能是一個涉及許多不同利益相關(guān)者的主題。例如,在制造業(yè)的預(yù)測維修領(lǐng)域,為了給人工智能算法提供足夠的支持,制造商和用戶都必須共享數(shù)據(jù),提供專業(yè)知識。為了促進這種合作,需要處理一些問題,例如可信度問題。
利益相關(guān)者之間的信任至關(guān)重要,解決數(shù)據(jù)源可靠性問題的方案將可能由認證技術(shù)提供。利用有公信力且數(shù)據(jù)密封的機構(gòu)所頒發(fā)的信用電子證書,是在各方之間建立信任的一個選項。
然而,這個解決方案的目標僅僅是在合作伙伴之間建立信任,并沒有解決數(shù)據(jù)質(zhì)量問題。為此目的,可以收集可信的數(shù)據(jù)池或評估算法來避免錯誤的數(shù)據(jù)庫。然后,元算法可以幫助人工智能系統(tǒng)在一段時間內(nèi)保持可靠和透明,提供關(guān)于源數(shù)據(jù)的起源和分布信息。
統(tǒng)一協(xié)調(diào)的人工智能監(jiān)管機構(gòu)尚未誕生
許多人工智能領(lǐng)域仍然缺乏適當?shù)谋O(jiān)管。為人工智能發(fā)展找到一種平衡的監(jiān)管方法,同時保證消費者保護、社會保障以及權(quán)利和自由的保護,是世界各地許多政府的一項重要優(yōu)先事項。雖然在無人駕駛汽車和無人機等領(lǐng)域已經(jīng)采取了一些早期立法措施,但世界上還沒有專門針對人工智能的監(jiān)管機構(gòu),而且也缺乏對人工智能的法律研究。
百度無人駕駛汽車
例如,在歐洲,機器人和人工智能方面由國家和各級不同監(jiān)管機構(gòu)負責,沒有任何中心機構(gòu)為這些領(lǐng)域的發(fā)展提供技術(shù)、倫理和管理方面的專門知識和監(jiān)督。這種缺乏協(xié)調(diào)的情況,不利于對技術(shù)發(fā)展所帶來的機會和挑戰(zhàn)作出及時和充分的反應(yīng)。
如何令人工智能受到人類道德的約束和保護?
盡管關(guān)于倫理問題的嚴重影響將出現(xiàn)在未來更先進的人工智能系統(tǒng)中,但主動盡早解決這些問題不僅是一種謹慎的做法,而且還可能避免未來昂貴的改造成本。
更直接的擔憂是人工智能系統(tǒng)(如自動駕駛汽車)在決策過程中需要作出道德選擇,例如,假設(shè)在無人駕駛汽車無法及時剎車且前方人行道上有三個行人時,系統(tǒng)應(yīng)該選擇撞向這三個行人,還是轉(zhuǎn)向道路另一邊的行人?
這個例子說明了人工智能安全不僅是一個技術(shù)問題,而且是一個政策和倫理問題,需要跨學科的方法來保護這些技術(shù)的用戶、中立的旁觀者和開發(fā)這些技術(shù)的公司(后者可能面臨重要的法律挑戰(zhàn))。雖然研究組織和公司已開始處理這些問題,但需要在國際層面上加強各方之間的合作。
自動駕駛的道德困境
圖片來源:MIT Technology Review
存在于人類日常生活中的人工智能應(yīng)用處于倫理挑戰(zhàn)的核心,如果人工智能系統(tǒng)的設(shè)計不符合倫理和社會約束,這些系統(tǒng)可能會按照與人類不同的邏輯運行,并可能導致巨大后果。
此外,在賦予機器決策權(quán)之后,人們將面臨一個新的倫理問題:機器是否有資格做出這樣的決策?隨著智能系統(tǒng)獲取特定領(lǐng)域的知識,其決策能力將可能超過人類,這意味著人們會在越來越多的領(lǐng)域依賴于機器主導的決策。在未來的人工智能發(fā)展中,這類倫理挑戰(zhàn)將迫切需要特別關(guān)注。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風翻身?