醒醒吧!AI妄想癥
不可避免地,AI侵蝕了人類生活的方方面面,我們無法想象失去AI,生活會變成什么樣。不斷有言論叫囂——很快人工智能將占據我們的工作崗位、為人類的戰(zhàn)爭而戰(zhàn)、管理我們的健康狀況,甚至像科幻片里上演的情節(jié)一樣成為人類的主宰。
而大數據,已經將一切看在了眼里。
所以,不要為那些可笑的言論買賬。
現實情況是,計算機仍然不能像人類一樣思考,盡管它們似乎表現得有模有樣。
智能但是不智慧
計算機知道的事實比我們知道的更多——他們有更好的記憶力,能更快地計算,并且不知疲倦。機器人在機械性任務中的表現遠遠超過人類:如擰緊螺栓、播種、搜索法律文件、接收銀行存款和分發(fā)現金。計算機可以識別物體、繪制圖片、駕駛汽車……你肯定可以輕松地想到其他十幾種令人印象深刻的超人類計算機專長。
人們很容易認為,之所以計算機表現地如此優(yōu)秀,是因為它們非常“聰明”。在四月發(fā)表的一份哈佛商學院的研究報告中,實驗者研究了人們對歌曲等流行事物的看法的影響因素。部分專家認為人類比計算機更具有說服力,但在比較人和計算機提出的“建議”的影響程度后,顯然算法占了上風。
計算機的表現非常優(yōu)秀,而且會越來越好,但計算機算法的用途仍被設計地非常狹窄,其任務需要被明確定義,例如拼寫檢查和信息檢索。這與通過評估正在發(fā)生的事情、為什么會發(fā)生以及采取行動的后果來處理不熟悉的情況所需的一般智力相去甚遠。
計算機無法形成有說服力的理論、無法進行歸納推理或制定長期計劃、無法寫出令人嘆服的詩歌、小說或電影劇本,計算機不具備任何情感、感受或是靈感。從任何意義上講,計算機都不知道單詞的含義。計算機沒有人類通過生活積累的智慧。
計算機甚至不知道這些簡單問題的答案:在將橙汁與牛奶混合時,加入少許鹽,它的味道會更好嗎?如果我閉上眼睛,后退著下樓,這樣安全嗎?
我不知道開發(fā)具有與人類相媲美的一般智能的計算機需要多長時間。我懷疑這需要幾十年的時間。我確信聲稱其已經實現的人是錯的,我也不相信那些給出具體日期的人。與此同時,請對那些牽強附會的科幻場景持懷疑態(tài)度,請謹慎對待開發(fā)AI產品的企業(yè)。
探索冰山下的海
放著情感和詩歌不說,如今,使用高性能計算機挖掘大數據模式,以幫助做出重大決策的模式已經逐漸普及。當統(tǒng)計模型分析大量潛在的解釋變量時,可能的關系數量變得非常大,可能是數萬億級別的。
如果考慮到更多潛在變量,即使它們都只是隨機噪聲,有些組合必然與我們試圖通過人工智能預測的結果高度相關:癌癥、信用風險、工作適應性、犯罪可能性。偶爾會出現有價值的發(fā)現,但考慮的解釋變量越多,發(fā)現的關系就越有可能是巧合的、暫時的、無用或者更糟的。
通過監(jiān)測Facebook或Twitter上的單詞使用情況以評估求職者的算法可能會發(fā)現虛假的相關性,這些相關性是工作績效的不良預測指標,對不同性別、種族、性取向和年齡產生了不同的影響。
2016年, Admiral Insurance開發(fā)了一種汽車保險算法,評估人們在Facebook上是喜歡邁克爾·喬丹還是喜歡萊昂納德·科恩(Leonard Cohen)。在預定發(fā)布的幾個小時前,Facebook表示不會允許Admiral訪問Facebook的數據;Facebook可能更關心的不是歧視或隱私,而是它擁有自己的專利算法,可以根據你和你的Facebook好友的特征來評估貸款申請。
最近,亞馬遜的一項工作申請算法主要是針對男性工程師的簡歷進行訓練,據報道,該算法“懲罰”了簡歷中帶有“女性”字樣的簡歷。亞馬遜發(fā)現,盡管他們盡了最大努力,但其工程師仍無法確定該算法是否仍然歧視女性,因此亞馬遜決定將該軟件斃掉。
2017年,國內一家人工智能借貸App的創(chuàng)始人兼首席執(zhí)行官稱:“銀行只專注于冰山一角,但我們構建的算法要去理解海底的大量數據!蹦敲春5子心男┯杏玫臄祿磕憧赡軙@訝地發(fā)現它完全與智能手機有關。
該CEO吹噓道:“我們不聘請傳統(tǒng)金融機構的任何風險控制人員,我們不需要人類告訴我們誰是好客戶,誰不好。技術就是我們的風控員!痹陲@示一個人有良好信用風險的數據中,有一項數據顯示了接聽電話的頻率。這不是一種毫無意義的接電話傾向,而是肯定會歧視那些宗教信仰禁止在特定日期或特定時間接電話的人。
人工智能的黑匣子
2016年希拉里·克林頓競選團隊栽了個大跟頭。他們嚴重依賴一個軟件程序,卻忽視了人們的呼聲,以至于沒有關注密歇根州和威斯康星州,等到發(fā)現后早就為時已晚。經驗豐富的競選工作人員知道選民的熱情不足,但熱情很難衡量,所以計算機將其忽略了。
如果發(fā)現的模式隱藏在黑匣子內,情況會更加惡化,即使設計算法的研究人員和工程師也無法理解黑匣子的內部細節(jié)。通常,沒有人知道為什么電腦得出結論說應該購買某支股票,某個求職者應該被拒絕,某個病人應該接受某種藥物治療,某個囚犯應該被拒絕假釋,某幢大樓應該被炸毀。
人工智能與數字廣告以及個人數據的結合,擴大了潛在損害的范圍,特朗普競選團隊承包商劍橋分析公司就是一例。企業(yè)和政府收集的大量個人數據被用來推動和刺激我們去買我們不需要的東西,去我們不喜歡的地方,投票給我們不應該信任的候選人。
在人工智能和大數據時代,真正的危險并不是計算機比我們更聰明,而是我們認為計算機比我們更智能,進而盲從計算機為我們做出的決策。計算機并非萬無一失,我們必須要自己來判斷統(tǒng)計模式是否有意義,或者僅僅是巧合。
人類推理與人工智能存在根本性的不同,這就是為什么我們比以往更需要縝密的推理。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數智主辦酒仙橋論壇,探索AI產業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?