自動駕駛汽車算不算機器人?傷人了怎么辦?
/ 導讀 /
涉及自動駕駛汽車事故的新聞總是上頭條。一輛自動駕駛汽車一百次有99次都能“認出”行人并在撞到他/她之前停車,這是研究和試驗的可喜成果,但在現(xiàn)實世界中這輛車卻是一臺殺人機器。如何為自動駕駛汽車制定強有力的、可驗證的安全規(guī)則,讓這1%的事故成為過去呢?
無限不可預測道路的安全才是自動駕駛
幾十年來,機器人(無人)車輛一直在危險環(huán)境中使用,包括退役的福島核電站或北海水下能源基礎設施的檢查。最近,低速的物流送貨車等自動駕駛車輛已經(jīng)從研究中心走入現(xiàn)實世界,很少出現(xiàn)問題。
自動駕駛汽車不可能像自動送貨機器人一樣簡單
然而,人們承諾的自動駕駛汽車的到來并沒有超越測試階段。在2018年的一次優(yōu)步自動駕駛汽車試駕中,一名行人被該車撞死。此后,使用自動駕駛功能事故的報道不絕于耳。盡管這樣的事故每天都發(fā)生在人類駕駛中,但公眾對無人駕駛汽車的安全標準要高得多,會將一次性事故解釋為:這些車輛在公共道路上行駛太不安全。
設計一輛完美的自動駕駛汽車,讓它總是做出最安全的決定是一項艱巨的技術任務。自動駕駛汽車一般是在嚴格控制的環(huán)境中進行實測的,而只有在無限不可預測的道路網(wǎng)絡中運行,快速處理許多復雜的變量并保證安全,才是真正的自動駕駛。
自動駕駛汽車與機器人定律
1942年,科幻作家艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說《繞線跑》(Runaround)中為機器人設計了一套規(guī)則——三條定律。由9篇科幻短篇小說組成了《機器人》(1950)一書。隨著其規(guī)則被大眾文化所接受,經(jīng)常被人們稱為阿西莫夫定律或三定律。
《機器人手冊》(公元2058年第56版)書中的三條定律是:
定律1:機器人不得傷害人,也不得通過不作為而使人受到傷害;
定律2:機器人必須服從人類發(fā)出的命令,除非這些命令與第一定律相沖突;
定律3:只要機器人的保護不與第一或第二定律相沖突,機器人必須保護自己的存在。
它們像不像專門為今天的自動駕駛汽車制定的法規(guī)?
自動駕駛汽車會遵守機器人三定律嗎?
阿西莫夫后來在《機器人與帝國》(1985)一書中引入了“機器人第零條定律”。這項新定律優(yōu)先于前三條,規(guī)則為:
定律0:機器人不可以傷害人類,或者不作為,允許人類受到傷害。
自動駕駛汽車就是機器人汽車(Robotic vehicle)。現(xiàn)實是,當自動駕駛汽車傷害人類時,它們顯然違反了第一條定律。
幫自動駕駛汽車做出最安全決定的規(guī)則
早在2013年,英國政府就將機器人和自主系統(tǒng)領域作為支撐英國就業(yè)和增長工業(yè)戰(zhàn)略的8項偉大技術之一。
最近,英國國家機器人博物館(National Robotarium)正在進行一項領先的研究項目AISEC,旨在保證自動駕駛車輛在做出決定時始終遵守“機器人定律”。沒有這樣的保證就會出現(xiàn)非常嚴重的安全問題,阻礙自動駕駛汽車在全球的起飛。
該機器人博物館是世界領先的機器人和人工智能(AI)中心,不僅研究機器人技術理論和發(fā)展,也研究與機器人和自主系統(tǒng)領域相關的倫理問題,為應對全球挑戰(zhàn)創(chuàng)造創(chuàng)新解決方案。其開創(chuàng)性的研究不斷從實驗室走向市場,同時培養(yǎng)有遠見的技術人才,為社會帶來實質(zhì)性的效益。
機器人倫理學家Patrick Lin表示:“受高速公路法規(guī)的啟發(fā),我們正在制定一套規(guī)則,幫助自動駕駛汽車在任何可能的情況下做出最安全的決定。驗證這些規(guī)則是否有效是我們必須克服的最后一個障礙,以使值得信賴的自動駕駛汽車安全上路!
他認為,人工智能軟件實際上非常善于了解它從未面對過的情景。利用從人腦布局中獲得靈感的“神經(jīng)網(wǎng)絡”,軟件可以發(fā)現(xiàn)數(shù)據(jù)中的模式,比如汽車和行人的運動,然后在新奇的場景中回憶這些模式。
他也承認:“我們?nèi)匀恍枰C明任何教給自動駕駛汽車的安全規(guī)則在這些新情況下都會起作用。要做到這一點,我們可以轉(zhuǎn)向形式驗證——計算機科學家用來證明規(guī)則在所有情況下都有效的方法!
他舉例說,在數(shù)學中,規(guī)則可以證明x+y等于y+x,而無需測試x和y的所有可能值。形式驗證也可以做類似的事情:它允許我們證明人工智能軟件將如何對不同的場景做出反應,而無需我們對公路上可能發(fā)生的每個場景進行詳盡的測試。
該領域最近取得的一個比較顯著的成功是驗證了一個人工智能系統(tǒng),該系統(tǒng)使用神經(jīng)網(wǎng)絡來避免無人駕駛飛機之間的碰撞。研究人員已經(jīng)成功地證實,無論飛機的水平和垂直運動如何,系統(tǒng)都能正確響應。
自動駕駛汽車決策的復雜性
Patrick Lin在介紹自動駕駛汽車自主決策的復雜性時表示,人類駕駛者遵循高速公路守則來保護所有道路使用者的安全,這依賴于人腦對這些規(guī)則的學習,并在無數(shù)的現(xiàn)實場景中明智地應用這些規(guī)則。
他說:“我們也可以教自動駕駛汽車學習高速公路守則。這就要求我們解開代碼中的每一條規(guī)則,讓車輛的神經(jīng)網(wǎng)絡理解如何遵守每一條規(guī)則,然后驗證它們在任何情況下都可以安全地遵守這些規(guī)則!
自動駕駛汽車需要學習各種規(guī)則
不過,在審查《公路法》中“絕不能”一詞的后果時,驗證這些規(guī)則是否會被安全遵守的挑戰(zhàn)相當復雜。要使自動駕駛汽車在任何特定情況下都像人類駕駛員一樣反應靈敏,就必須以這樣一種方式來規(guī)劃這些策略,即考慮細微差別、加權風險和不同規(guī)則直接沖突的偶發(fā)場景,要求汽車忽略其中一個或多個規(guī)則。
這樣的任務不能只留給程序員,它需要律師、安全專家、系統(tǒng)工程師和決策者的投入。在新啟動的AISEC項目中,研究人員正在設計一種工具,以促進建立自動駕駛汽車道德和法律標準所需的跨學科合作。
Patrick Lin說:“教自動駕駛汽車變得完美是一個動態(tài)的過程:取決于法律、文化和技術專家如何隨著時間的推移來定義完美。AISEC工具正是基于這一點而構建的,它提供了一個‘任務控制面板’,用于監(jiān)控、補充和調(diào)整最成功的自動駕駛汽車管理規(guī)則,這些規(guī)則隨后將提供給整個行業(yè)!
他最后說:“我們希望在2024年交付AISEC工具的第一個實驗原型。但我們?nèi)匀恍枰獎?chuàng)建自適應驗證方法來解決剩余的安全問題,這些方法可能需要數(shù)年的時間才能構建并嵌入到自動駕駛汽車中!
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
圖片新聞
最新活動更多
推薦專題
- 1 2025上海車展看什么?看這一篇就夠了!
- 2 關稅大戰(zhàn),汽車芯片會漲價嗎
- 3 工信部召開智能網(wǎng)聯(lián)汽車產(chǎn)品準入及軟件在線升級管理工作推進會提的內(nèi)容,將如何影響智駕行業(yè)發(fā)展?
- 4 地平線智駕方案軟硬結合,大眾、保時捷的合作紛至沓來
- 5 高呼的“全民智駕”真的做到“全民”了嗎?
- 6 一季度汽車產(chǎn)量省份排名大洗牌!誰在異軍突起?
- 7 奇瑞的混動技術:厚積薄發(fā),從發(fā)動機到混動系統(tǒng)
- 8 中國汽車發(fā)展頂層設計思路 - 萬鋼主席2025百人會核心內(nèi)容總結
- 9 東風+華為,還是華為借東風?華為ADS3.0技術詳解
- 10 工信部對浮躁的智駕說“不”