侵權投訴
訂閱
糾錯
加入自媒體

自動駕駛汽車算不算機器人?傷人了怎么辦?

2021-04-11 10:25
智車科技IV
關注

/ 導讀 /

涉及自動駕駛汽車事故的新聞總是上頭條。一輛自動駕駛汽車一百次有99次都能“認出”行人并在撞到他/她之前停車,這是研究和試驗的可喜成果,但在現(xiàn)實世界中這輛車卻是一臺殺人機器。如何為自動駕駛汽車制定強有力的、可驗證的安全規(guī)則,讓這1%的事故成為過去呢?

無限不可預測道路的安全才是自動駕駛

幾十年來,機器人(無人)車輛一直在危險環(huán)境中使用,包括退役的福島核電站或北海水下能源基礎設施的檢查。最近,低速的物流送貨車等自動駕駛車輛已經(jīng)從研究中心走入現(xiàn)實世界,很少出現(xiàn)問題。

自動駕駛汽車不可能像自動送貨機器人一樣簡單

然而,人們承諾的自動駕駛汽車的到來并沒有超越測試階段。在2018年的一次優(yōu)步自動駕駛汽車試駕中,一名行人被該車撞死。此后,使用自動駕駛功能事故的報道不絕于耳。盡管這樣的事故每天都發(fā)生在人類駕駛中,但公眾對無人駕駛汽車的安全標準要高得多,會將一次性事故解釋為:這些車輛在公共道路上行駛太不安全。

設計一輛完美的自動駕駛汽車,讓它總是做出最安全的決定是一項艱巨的技術任務。自動駕駛汽車一般是在嚴格控制的環(huán)境中進行實測的,而只有在無限不可預測的道路網(wǎng)絡中運行,快速處理許多復雜的變量并保證安全,才是真正的自動駕駛。

自動駕駛汽車與機器人定律

1942年,科幻作家艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說《繞線跑》(Runaround)中為機器人設計了一套規(guī)則——三條定律。由9篇科幻短篇小說組成了《機器人》(1950)一書。隨著其規(guī)則被大眾文化所接受,經(jīng)常被人們稱為阿西莫夫定律或三定律。

《機器人手冊》(公元2058年第56版)書中的三條定律是:

定律1:機器人不得傷害人,也不得通過不作為而使人受到傷害;

定律2:機器人必須服從人類發(fā)出的命令,除非這些命令與第一定律相沖突;

定律3:只要機器人的保護不與第一或第二定律相沖突,機器人必須保護自己的存在。

它們像不像專門為今天的自動駕駛汽車制定的法規(guī)?

自動駕駛汽車會遵守機器人三定律嗎?

阿西莫夫后來在《機器人與帝國》(1985)一書中引入了“機器人第零條定律”。這項新定律優(yōu)先于前三條,規(guī)則為:

定律0:機器人不可以傷害人類,或者不作為,允許人類受到傷害。

自動駕駛汽車就是機器人汽車(Robotic vehicle)。現(xiàn)實是,當自動駕駛汽車傷害人類時,它們顯然違反了第一條定律。

幫自動駕駛汽車做出最安全決定的規(guī)則

早在2013年,英國政府就將機器人和自主系統(tǒng)領域作為支撐英國就業(yè)和增長工業(yè)戰(zhàn)略的8項偉大技術之一。

最近,英國國家機器人博物館(National Robotarium)正在進行一項領先的研究項目AISEC,旨在保證自動駕駛車輛在做出決定時始終遵守“機器人定律”。沒有這樣的保證就會出現(xiàn)非常嚴重的安全問題,阻礙自動駕駛汽車在全球的起飛。

該機器人博物館是世界領先的機器人和人工智能(AI)中心,不僅研究機器人技術理論和發(fā)展,也研究與機器人和自主系統(tǒng)領域相關的倫理問題,為應對全球挑戰(zhàn)創(chuàng)造創(chuàng)新解決方案。其開創(chuàng)性的研究不斷從實驗室走向市場,同時培養(yǎng)有遠見的技術人才,為社會帶來實質(zhì)性的效益。

機器人倫理學家Patrick Lin表示:“受高速公路法規(guī)的啟發(fā),我們正在制定一套規(guī)則,幫助自動駕駛汽車在任何可能的情況下做出最安全的決定。驗證這些規(guī)則是否有效是我們必須克服的最后一個障礙,以使值得信賴的自動駕駛汽車安全上路!

他認為,人工智能軟件實際上非常善于了解它從未面對過的情景。利用從人腦布局中獲得靈感的“神經(jīng)網(wǎng)絡”,軟件可以發(fā)現(xiàn)數(shù)據(jù)中的模式,比如汽車和行人的運動,然后在新奇的場景中回憶這些模式。

他也承認:“我們?nèi)匀恍枰C明任何教給自動駕駛汽車的安全規(guī)則在這些新情況下都會起作用。要做到這一點,我們可以轉(zhuǎn)向形式驗證——計算機科學家用來證明規(guī)則在所有情況下都有效的方法!

他舉例說,在數(shù)學中,規(guī)則可以證明x+y等于y+x,而無需測試x和y的所有可能值。形式驗證也可以做類似的事情:它允許我們證明人工智能軟件將如何對不同的場景做出反應,而無需我們對公路上可能發(fā)生的每個場景進行詳盡的測試。

該領域最近取得的一個比較顯著的成功是驗證了一個人工智能系統(tǒng),該系統(tǒng)使用神經(jīng)網(wǎng)絡來避免無人駕駛飛機之間的碰撞。研究人員已經(jīng)成功地證實,無論飛機的水平和垂直運動如何,系統(tǒng)都能正確響應。

自動駕駛汽車決策的復雜性

Patrick Lin在介紹自動駕駛汽車自主決策的復雜性時表示,人類駕駛者遵循高速公路守則來保護所有道路使用者的安全,這依賴于人腦對這些規(guī)則的學習,并在無數(shù)的現(xiàn)實場景中明智地應用這些規(guī)則。

他說:“我們也可以教自動駕駛汽車學習高速公路守則。這就要求我們解開代碼中的每一條規(guī)則,讓車輛的神經(jīng)網(wǎng)絡理解如何遵守每一條規(guī)則,然后驗證它們在任何情況下都可以安全地遵守這些規(guī)則!

自動駕駛汽車需要學習各種規(guī)則

不過,在審查《公路法》中“絕不能”一詞的后果時,驗證這些規(guī)則是否會被安全遵守的挑戰(zhàn)相當復雜。要使自動駕駛汽車在任何特定情況下都像人類駕駛員一樣反應靈敏,就必須以這樣一種方式來規(guī)劃這些策略,即考慮細微差別、加權風險和不同規(guī)則直接沖突的偶發(fā)場景,要求汽車忽略其中一個或多個規(guī)則。

這樣的任務不能只留給程序員,它需要律師、安全專家、系統(tǒng)工程師和決策者的投入。在新啟動的AISEC項目中,研究人員正在設計一種工具,以促進建立自動駕駛汽車道德和法律標準所需的跨學科合作。

Patrick Lin說:“教自動駕駛汽車變得完美是一個動態(tài)的過程:取決于法律、文化和技術專家如何隨著時間的推移來定義完美。AISEC工具正是基于這一點而構建的,它提供了一個‘任務控制面板’,用于監(jiān)控、補充和調(diào)整最成功的自動駕駛汽車管理規(guī)則,這些規(guī)則隨后將提供給整個行業(yè)!

他最后說:“我們希望在2024年交付AISEC工具的第一個實驗原型。但我們?nèi)匀恍枰獎?chuàng)建自適應驗證方法來解決剩余的安全問題,這些方法可能需要數(shù)年的時間才能構建并嵌入到自動駕駛汽車中!

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    智能汽車網(wǎng) 獵頭職位 更多
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號