訂閱
糾錯
加入自媒體

汽車人工智能不如七個月的孩子聰明?

2021-09-08 14:17
來咖智庫
關注

如何改進自動駕駛汽車的智能性。

編譯 | 豆豆

編輯 | G3007

7個月大以后,多數(shù)孩子都已經(jīng)學會了移出視線的物體仍然存在。把玩具放在毯子下面,孩子會知道玩具還在那里,并且可以伸手把它從毯子下面取回來。這種對于“物體永久性”的理解是常見的發(fā)展里程碑,也是基本的現(xiàn)實原則。

但這也是自動駕駛汽車所不具備的,這會是一個問題。自動汽車越來越好,但它們理解世界的方式仍然與人類不同。在自動駕駛汽車看來,被經(jīng)過的貨車暫時擋住的自行車已不再存在。

對于現(xiàn)在廣泛存在的僭取了稍有誤導性的人工智能稱號的計算原則來講,這種失敗是基礎性的。目前人工智能通過建造世界的復雜統(tǒng)計模型來工作,但是其缺乏對于現(xiàn)實的更深層理解。對于如何能夠給人工智能賦予一定程度的理解能力(也許是與7個月大孩子一樣的推理能力),人們正在積極開展研究。

現(xiàn)代人工智能基于機器學習的理念。如果工程師想要計算機認識停車標識,他不需要費力寫出上千行代碼,以表述有可能指示該標識的每種像素模式。他會寫一個能夠自己學習的程序,然后給它看成千上萬張停車標識的圖片。重復多次以后,該程序會逐漸了解這些圖片的共同特點是什么。

人們也在使用類似的技巧來訓練自動駕駛汽車在交通中的操作。這樣,汽車就能夠學習如何按交通標線行駛,躲避其他汽車,遇到紅燈踩剎車,等等。但對于人類司機認為理所當?shù)暮芏嗍虑?它們并不理解。例如,不理解其他上路的汽車有發(fā)動機和四個輪子,不理解它們(通常)會遵守交通規(guī)則、(永遠)會遵守物理定律,也不理解物體永久性。

瑞典Orebro大學的Melhul Bhatt是CoDesign Lab公司的創(chuàng)始人,他通過該公司按照自己的想法進行商業(yè)開發(fā)。他最近在“人工智能”雜志發(fā)表了一篇文章,描述了另外一種方法。他和同事們獲取了一些在自動駕駛汽車中使用的已有人工智能程序,在上面注入了名叫符號推理引擎的軟件。

心有其理

與機器學習那樣通過概率來接觸世界不同,該軟件將基礎物理概念應用在自動駕駛汽車傳感器信號處置程序的輸出結果中。這種修正后的結果將被輸入駕駛汽車的軟件中。相關概念涉及的相關理念包括:分離的物體持續(xù)存在;它們彼此間有“在前面”和“在后面”這樣的空間關系;它們可能完全可見、部分可見或徹底被另一物體遮擋。

這種方法很管用。在測試中,如果一輛車暫時地被另一輛車擋住,該推理強化軟件將跟蹤這輛被擋住的車,預測它將于何處、何時再次出現(xiàn),有必要的話會想辦法躲避。這種改進并不算大。在一般測試中,Bhatt博士的系統(tǒng)已有軟件的得分高約5%。但這證明該原則成立。此外還有其他收獲。例如,與機器學習算法不同,推理引擎能夠告訴你它做事情的原因。

例如,你可以問一輛裝有推理引擎的車為什么踩剎車,它將能夠告訴你,它認為一輛被貨車擋住的自行車將進入前方路口。機器學習程序做不到這一點。除了能夠幫助改進程序設計,Bhatt博士認為這樣的信息將對監(jiān)管者和保險公司有幫助。這也將能夠加快公眾對與自動駕駛汽車的接受速度。

Bhatt博士的工作處于人工智能領域長期存在的爭論之中。1950年代,早期人工智能研究者曾利用這種前期植入的推理程序取得一定成功。但從1990年代起,隨著編程技術的增強,更強大計算機及更多可用數(shù)據(jù)的涌現(xiàn),機器學習發(fā)生了顯著改進。今天,幾乎所有的人工智能都是基于機器學習。

并非只有Bhatt博士對此產生疑問。紐約大學研究心理學和神經(jīng)學的Gary Marcus也有同感,他也是一家名叫Robust.AI的人工智能和機器人公司的老板。為了支持自己的觀點,Marcus博士引用了8年前的一個廣受關注的報告。那時DeepMind公司(當時是獨立公司,現(xiàn)在已被收入Google旗下)的工程師編寫了一個程序,能夠在不了解任何規(guī)則的前提下學會玩Breakout視頻游戲,即用虛擬球拍擊打移動的虛擬球。

DeepMind成為了一個很棒的玩家。但當另一組研究者改動Breakout游戲的代碼時,即便是只把球拍的位置移動幾個像素,DeepMind的能力都會大幅下降。即便是在稍有不同的情境下,它都無法將特定情境下學到的東西進行廣泛應用。

回到未來

對于Marcus博士,這個例子突出了機器學習的脆弱性。但也有人認為,符號推理才是脆弱的那個,機器學習的前景還很大。自動駕駛汽車公司W(wǎng)ayve的科技副總裁Jeff Hawke就是持這種觀念的人之一。Wayve采取的方法是通過同時驅動汽車不同部件來訓練軟件,而不是分開來做。在演示中,Wayve的汽車在狹窄、擁堵的倫敦街頭行駛時判斷準確,這即使是對于很多人來說都很挑戰(zhàn)。

Hawke博士指出:“眾所周知,無論設想的正式邏輯有多周到、結構有多合理,專家通過規(guī)則建造的系統(tǒng)的復雜性一般都不夠。多數(shù)真實世界任務的復雜性都比使用編制規(guī)則所能解決的要大!崩,這樣的系統(tǒng)可能會制定汽車遇紅燈應該停的規(guī)則。但不同國家信號燈的設計不同,有些燈是給行人而不是車輛的。還有時候,你可能需要闖紅燈來給救火車讓道。“機器學習的美妙之處”,Hawke博士說,“就是所有這些因素和概念,都能夠通過數(shù)據(jù)自動發(fā)現(xiàn)和學習。數(shù)據(jù)越多,它通過學習就能夠變得越智能。”

加州大學伯克利分校的機器人和人工智能研究者Nicholas Rhinehart也支持機器學習。他指出,Bhatt博士的方式實際上顯示可以將兩種方法結合起來。但他對于其必要性并不確定。在他和其他一些人的研究中,機器學習系統(tǒng)本身就已經(jīng)能夠預測未來幾秒鐘的可能性(例如另一輛車是否會避讓),并按照這些預測來制定應急計劃。

Bhatt博士則回應,你可能用數(shù)百萬公里駕駛積累的數(shù)據(jù)訓練汽車后,仍無法確認已經(jīng)把所有可能情境都覆蓋了。在很多情況下,從一開始就把一些規(guī)則編入程序中可能更簡單,更有效。

對于這兩種策略的擁護者,這個問題不僅局限于自動駕駛汽車,而是涉及人工智能本身的未來。“我認為我們目前采取的方式不對”,Marcus博士說,“機器學習對于語音識別等已經(jīng)被證實有效,但其實際上并不是人工智能的答案。我們仍然沒有真正破解智能問題!睙o論如何,看來7個月大的孩子仍然有很多東西可以教給機器。

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號