突發(fā)!AI恐將滅絕人類,350名權威簽署聯(lián)名信
現(xiàn)階段AI領域,波詭云譎。一邊大模型的多模態(tài)能力一天一個樣,越來越強悍;另外一邊,看著AI越來越聰明,感覺人類智慧生物的地位不保,開始尋求監(jiān)管AI,避免發(fā)生威脅人類生存的危機出現(xiàn)。
AI頭號種子GPT—4自然是首當其沖,為此ChatGPT之父Sam Altman赴白宮,闡明自己的立場和觀點。也配合政府制定AI監(jiān)管的條例和措施。
今天,又一則有關AI威脅的消息在全網(wǎng)瘋傳,其中不乏AI領域的專家和權威。
根據(jù)彭博社報道,非營利組織人工智能安全中心(Center for AI Safety)本周二發(fā)布簡短聲明:“降低人工智能滅絕的風險,應該與其它社會規(guī)模的風險(如大流行病和核戰(zhàn)爭)一樣,成為全球的優(yōu)先事項”。
包括 Sam Altman 在內(nèi) 350 位 AI 權威都簽署了這封聯(lián)名公開信,并對當前正在開發(fā)的 AI 技術可能會對人類構成生存威脅擔憂。
此外還有另外兩家AI領先公司的CEO簽署了這一公開信:Google DeepMind 首席執(zhí)行官 Demis Hassabis和Anthropic 的首席執(zhí)行官 Dario Amodei。
其中還有 Geoffrey Hinton 和 Yoshua Bengio 兩位人工智能的“教父”。
把AI和流行病、核戰(zhàn)爭相提并論,真有一種《毀滅者》的既視感。
然而已經(jīng)不是第一次出現(xiàn)這種AI威脅的聲音了。
在上周,Sam Altman 和另外兩位 OpenAI 的高管提出應該建立類似國際原子能機構這樣國際組織來安全監(jiān)管 AI 的發(fā)展。
早在3月,由馬斯克等人牽頭簽署的一份公開信,就表示了社會對AI存在的恐懼心理。
該信呼吁所有的 AI 實驗立即暫停研究比 GPT-4 更先進的 AI 模型,暫停時間至少 6 個月,為的就是把這些可怕的幻想扼殺在搖籃之中。
對于這一系列呼吁和公開信,一些專家認為它過分強調(diào)了人工智能帶來的風險,有些人則認同存在這種可能性,但不同意信中的建議措施。
安全人工智能中心的執(zhí)行主任丹·亨德里克斯(Dan Hendrycks)告訴《紐約時報》,5月30日發(fā)布的聲明很簡潔,沒有提出解決人工智能威脅的任何潛在方法,這是為了避免進一步產(chǎn)生分歧。
他說:“我們不想為此推出一個包含30種潛在干預措施的大菜單。如果這樣做,它會淹沒主要信息!

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?