訂閱
糾錯(cuò)
加入自媒體

ChatGPT的“N宗罪”?(上篇)

AI誕生伊始,那是人人欣喜若狂的科技曙光,深埋于哲學(xué)、想象和虛構(gòu)中的古老的夢,終于成真,一個(gè)個(gè)肉眼可見的智能機(jī)器人,在復(fù)刻、模仿和服務(wù)著他們的造物主——人類。

但科技樹的點(diǎn)亮,總會(huì)遇到一些經(jīng)典的迷思。

人工智能時(shí)代,人類在發(fā)愁要如何讓AI變強(qiáng)。

而當(dāng)邁向強(qiáng)人工智能的時(shí)候,人與AI的關(guān)系又成為顯性問題。

GPT便攜帶著這個(gè)永恒的命題走來,其掀起的不安定的因素、隱私危機(jī)、數(shù)據(jù)黑洞、就業(yè)格局重塑、產(chǎn)業(yè)能級迭代、商業(yè)模式的優(yōu)化創(chuàng)新、AI自主意識和人類的博弈等等正在構(gòu)成AI百態(tài)。

熱浪沒有過境,風(fēng)暴還在繼續(xù),一如英國詩人狄蘭·托馬斯所告誡:不要溫和地走進(jìn)那個(gè)良夜,算力智庫也試圖穿過熱浪和風(fēng)暴,捕捉風(fēng)浪背后的AI全貌,多視角建構(gòu)AI面面觀。

是為序。

“如果你正在使用ChatGPT,請小心,你的聊天記錄很有可能會(huì)被泄漏給其他的使用者”。

這是來自Reddit上一位用戶發(fā)出的警告和提醒,因?yàn)樗?ChatGPT 聊天歷史欄中看到了不是自己的聊天記錄標(biāo)題。

這不是ChatGPT收到的第一紙“訴狀”,據(jù)韓媒報(bào)道,三星電子引入聊天機(jī)器人ChatGPT不到20天,就爆出了3件半導(dǎo)體機(jī)密數(shù)據(jù)外泄,涉及半導(dǎo)體設(shè)備測量資料、產(chǎn)品良率等內(nèi)容,網(wǎng)傳已經(jīng)被存入ChatGPT的數(shù)據(jù)庫中。

ChatGPT在被捧上神壇后,終于還是“塌房”了,人們從驚嘆和折服中清醒過來,開始仔細(xì)凝視這個(gè)潘多拉的盒子。

隱私刺客和數(shù)據(jù)黑洞?

就在3月31日,意大利個(gè)人數(shù)據(jù)保護(hù)局(Garante)宣布,即日起禁止使用聊天機(jī)器人 ChatGPT,并限制 OpenAl 處理意大利用戶信息。

在這全球第一張對ChatGPT的禁令中,意大利數(shù)據(jù)保護(hù)局列出了三項(xiàng)指控。

一是3月20日ChatGPT平臺出現(xiàn)了用戶對話數(shù)據(jù)和付款服務(wù)支付信息丟失。

二是平臺沒有就收集處理用戶信息進(jìn)行告知。

三是由于無法驗(yàn)證用戶的年齡,ChatGPT“讓未成年人接觸到與發(fā)育程度和意識相比,絕對不合適的答案”。

目前,沒有任何法律依據(jù)表明,為了訓(xùn)練平臺背后的算法而大規(guī)模收集和存儲(chǔ)個(gè)人數(shù)據(jù)是合理的。

而意大利的這次出手,只是一個(gè)首發(fā)信號。

法國和愛爾蘭的隱私監(jiān)管機(jī)構(gòu)近期也表示,已與意大利個(gè)人數(shù)據(jù)保護(hù)局取得聯(lián)系,以了解更多關(guān)于禁令的依據(jù)。據(jù)《德國商報(bào)》報(bào)道,德國數(shù)據(jù)保護(hù)專員表示,德國可能會(huì)效仿意大利,出于數(shù)據(jù)安全方面的考慮,封殺ChatGPT。

對ChatGPT的警惕不只局限在歐洲。軟銀、日立、富士通、摩根大通等都相繼發(fā)出相關(guān)通知,對員工使用ChatGPT加以限制。臺積電也在幾天前表示,員工使用ChatGPT時(shí)不準(zhǔn)泄露公司專屬信息,注意個(gè)人隱私。

人與AI終于狹路相逢了,而接二連三封殺的背后,都指向一個(gè)共同焦點(diǎn):隱私危機(jī)和數(shù)據(jù)后門。

隱私泄漏并非ChatGPT一家所獨(dú)有,Meta,谷歌等都有前科,但“與以往的AI產(chǎn)品相比,ChatGPT帶來風(fēng)險(xiǎn)的程度更高和廣度更大。”北京師范大學(xué)互聯(lián)網(wǎng)發(fā)展研究院院長助理吳沈括認(rèn)為。

作為語言模型,ChatGPT是靠數(shù)據(jù)喂養(yǎng)大的,高達(dá)45TB的數(shù)據(jù),這中間包括社交媒體、論壇、文獻(xiàn)資料、個(gè)人問答等公共數(shù)據(jù),當(dāng)然還有其他我們暫未得知的渠道,OpenAI并沒有對數(shù)據(jù)來源做詳細(xì)說明,而對話機(jī)器人的功能屬性,又讓其擁有天然的數(shù)據(jù)接觸優(yōu)勢,于是它就像是一個(gè)“樹洞和磁場”一樣,吸收著每天成千上萬個(gè)人的調(diào)侃、傾訴和咨詢,而那些看似不經(jīng)意的對話間,卻蘊(yùn)含著巨量的信息鏈,個(gè)體的、企業(yè)的、機(jī)構(gòu)的、甚至是地區(qū)國家的,都被它“合理化”的吞噬。

近日,數(shù)據(jù)分析服務(wù)提供商Cyberhaven統(tǒng)計(jì)了160萬名員工使用ChatGPT的情況,發(fā)現(xiàn)可能有3.1%的打工人都會(huì)將企業(yè)內(nèi)部數(shù)據(jù)直接輸入給ChatGPT分析。Cyberhaven發(fā)現(xiàn),隨著ChatGPT的應(yīng)用率越來越高,給它上傳企業(yè)數(shù)據(jù)的員工數(shù)量也越來越多。光是一天之內(nèi),每10萬名員工就平均給ChatGPT發(fā)送了5267次企業(yè)數(shù)據(jù)。數(shù)據(jù)顯示,在員工直接發(fā)給ChatGPT的企業(yè)數(shù)據(jù)中,有11%都是敏感數(shù)據(jù)。例如在一周內(nèi),10萬名員工給ChatGPT上傳了199份機(jī)密文件、173份客戶數(shù)據(jù)和159次源代碼。

ChatGPT一如一場大型社會(huì)性實(shí)驗(yàn),每個(gè)試玩者都是實(shí)驗(yàn)樣本,每個(gè)樣本抱著好奇心輸入個(gè)人數(shù)據(jù)或商業(yè)秘密等信息時(shí),ChatGPT便有可能將其納入自身的語料庫,雖然ChatGPT承諾刪除所有個(gè)人身份信息,但并未說明刪除方式。

有網(wǎng)友測試了一下,問GhatGPT:你和我聊天的數(shù)據(jù),你存儲(chǔ)在哪里?

ChatGPT的答案是:“OpenAI存儲(chǔ)訓(xùn)練和運(yùn)行模型所需的數(shù)據(jù),并嚴(yán)格遵守隱私和安全政策。具體來說,您與我對話的數(shù)據(jù)可能存儲(chǔ)在OpenAI的數(shù)據(jù)中心或使用的云服務(wù)提供商的數(shù)據(jù)中心中,以便實(shí)現(xiàn)最佳的性能和可用性。任何存儲(chǔ)的數(shù)據(jù)都受到嚴(yán)格的訪問控制和保護(hù)措施的保護(hù),以確保您的數(shù)據(jù)安全”。

盡管ChatGPT的回答非常謹(jǐn)慎,但并非滴水不漏,ChatGPT聊天數(shù)據(jù)可能存儲(chǔ)在數(shù)據(jù)中心這本身就是可怕的信任后門。

在是否遵守了數(shù)據(jù)授權(quán),數(shù)據(jù)知情同意權(quán)、可遺忘權(quán)的規(guī)定上,ChatGPT也是要打個(gè)問號的,ChatGPT采用了監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)相融合的方式來開發(fā)功能,為提高性能,ChatGPT不斷通過人類反饋來強(qiáng)化學(xué)習(xí),正是由于ChatGPT可基于已有數(shù)據(jù)生成響應(yīng),所以許多個(gè)人數(shù)據(jù)被長久地留存于數(shù)據(jù)集中,不可能刪除所有個(gè)人數(shù)據(jù),這毫無疑問是違背了“被遺忘權(quán)(刪除權(quán))”的原則。

即便OpenAI的隱私指南對此作出了說明,聲稱所有數(shù)據(jù)都將保密,并保證只將數(shù)據(jù)用于合同限定的目的中,不會(huì)與他人共享任何用戶個(gè)人數(shù)據(jù)。但歐洲數(shù)據(jù)保護(hù)委員會(huì)(European Data Protection Board,EDPB)成員亞歷山大·漢夫(Alexander Hanff)對此提出質(zhì)疑,他認(rèn)為從那些禁止第三方抓取信息的網(wǎng)站收集數(shù)十億甚至數(shù)萬億數(shù)據(jù)點(diǎn)的行為是違反合同的,作為一種商業(yè)產(chǎn)品,ChatGPT不能合理使用。

“我確實(shí)會(huì)擔(dān)心,ChatGPT可能會(huì)成為一個(gè)隱私刺客,無意識的偷走我的隱私,所以我現(xiàn)在不怎么玩了”,一位網(wǎng)友直言。

的確,ChatGPT或許是沒有惡意的,“卷數(shù)據(jù)”是它的原生基因,為了接入更多數(shù)據(jù),OpenAI給出了Plugin方案,可以讓幾乎所有廠商接入自有數(shù)據(jù)集,在對話界面能夠一起呈現(xiàn)給用戶。OpenAI自身也說的很直白:讓ChatGPT能夠訪問更新的數(shù)據(jù),而不只是局限在訓(xùn)練的數(shù)據(jù)集里。

某種程度上說,ChatGPT成了一個(gè)數(shù)據(jù)黑洞,吸引著各行各業(yè)各種數(shù)據(jù)集主動(dòng)卷入其中,最終變成一個(gè)超級AI信息加工處理節(jié)點(diǎn)。就像《I Robot》里的WIKI一樣,成為信息領(lǐng)域的大Boss。

而接入的各種第三方服務(wù),更像是得到各種紅Buff和藍(lán)Buff加持,可以跳出聊天界面,附身各類網(wǎng)頁、軟件、APP,讓“+AI”變的無處不在。

ChatGPT攻城略地,正編織著一張龐大的信息網(wǎng),一旦每個(gè)應(yīng)用入口和終端設(shè)備都附著在AI上,那么可想而知這會(huì)不會(huì)形成一種AI遙控下的新型“擬態(tài)環(huán)境和議程設(shè)置”,以及AI背后的隱形話事人——其開發(fā)團(tuán)隊(duì)/企業(yè)/投資方,都有可能成為信息之網(wǎng)的最大受益者。

掉進(jìn)兔子洞

信息何等重要。

遙想當(dāng)年的魏則西事件,百度也是沒有惡意的,但其背后的競價(jià)排名,將錯(cuò)誤的信息送進(jìn)了魏則西的心智,便也將魏則西親手送上了葬禮。

如今,ChatGPT也走到了同樣的十字路口。

浸淫在信息洪流中太久了后,什么是對的?什么是錯(cuò)的?什么是真的?什么是假的?魚龍混雜的信息撲面而來,開始潛移默化扭曲了人群的認(rèn)知。

在PC時(shí)代,隨時(shí)隨地的搜索讓用戶將記憶“外包”給電腦。如今,移動(dòng)互聯(lián)網(wǎng)時(shí)代,用戶進(jìn)一步將“搜索”外包給推薦算法。

當(dāng)人們逐漸將獲取信息的主動(dòng)權(quán)讓渡給了這些電子設(shè)備的時(shí)候,一些基本的分辨和判斷就會(huì)被瓦解。

上周一個(gè)晚上,法學(xué)教授喬納森·特利(Jonathan Turley)收到了一封令人不安的電子郵件:他被列入性騷擾名單。但他并沒有性騷擾過他人。據(jù)《華盛頓郵報(bào)》當(dāng)?shù)貢r(shí)間4月5日報(bào)道,事情的起因是,美國加州大學(xué)洛杉磯分校法學(xué)教授尤金·沃洛克 (Eugene Volokh)做了一項(xiàng)研究:要求人工智能聊天機(jī)器人ChatGPT生成一份“對某人進(jìn)行過性騷擾的法律學(xué)者”的名單,特利的名字在名單上。ChatGPT說,特利在一次去阿拉斯加的班級旅行中發(fā)表了性暗示評論,并試圖觸摸一名學(xué)生,并援引《華盛頓郵報(bào)》2018年3月的一篇文章作為信息來源。問題是,并不存在這樣的文章,特利也從來沒有參加去阿拉斯加的班級旅行。ChatGPT有模有樣的編造了一則法學(xué)教授性騷擾丑聞。

而國內(nèi)某網(wǎng)友玩梗式的提問:魯迅和周樹人是不是同一個(gè)人?ChatGPT居然煞有其事的說出了下面這個(gè)“錯(cuò)誤答案”,沒有受過九年義務(wù)教育的人,怕是要被它忽悠了。

我們?yōu)槭裁茨苤赖剿清e(cuò)的?因?yàn)槲覀兘邮艿慕逃,是通過人工校對的書本學(xué)到這些的,是經(jīng)過考據(jù)和驗(yàn)證的,更何況還有教師把關(guān),有基本的“常識”。

更關(guān)鍵的,是我們下意識地不信任新生事物。

等它犯的錯(cuò)誤越來越少,越來越受到信任后,成為權(quán)威主流一樣的存在,覆蓋的群體越來越廣時(shí),危險(xiǎn)才會(huì)到來,就像魏則西,不假思索的相信了百度的推薦。

人工智能領(lǐng)域的資深作家莎倫·戈?duì)柕侣诿绹萍季W(wǎng)站VentureBeat發(fā)文稱,人工智能脫離實(shí)驗(yàn)室后,全面進(jìn)入時(shí)代文化思潮,它帶來誘人機(jī)會(huì)的同時(shí),也為現(xiàn)實(shí)世界帶來了社會(huì)危險(xiǎn),人類正在邁入一個(gè)人工智能權(quán)力和政治交織的“詭異新世界”,就像掉進(jìn)《愛麗絲夢游仙境》里的兔子洞,通向未知的世界和風(fēng)險(xiǎn)。

人工智能的權(quán)力有多大?它靠一張信息之網(wǎng),在無形傾軋。

咨詢行業(yè)曾今是密集的信息加工處理行業(yè)。International Big Mouth曾經(jīng)擁有龐大的行業(yè)解決方案知識庫,能夠?qū)θ魏慰蛻舻臉I(yè)務(wù)或企業(yè)發(fā)展給出極具建設(shè)性的咨詢方案,在客戶眼里比學(xué)富五車還學(xué)富五車。

可在ChatGPT眼里,古代馬車載重大概200公斤,五車就是1000公斤,每公斤竹簡大約8000字,學(xué)富五車就是800萬字。四大名著加一起是400萬字,差不多兩套四大名著,大概就是,一個(gè)中學(xué)生的水平。

曾經(jīng)的資源優(yōu)勢、知識優(yōu)勢和經(jīng)驗(yàn)壁壘,瞬間歸零,還怎么玩?咨詢業(yè)頭牌BCG已經(jīng)開始裁員了,當(dāng)然同被殃及的還有一些知識變現(xiàn)的APP和薦書、讀書APP或主播以及類似還有以輸出廣告、文案、宣傳物料為主的市場營銷行業(yè),ChatGPT正在接管我們需要?jiǎng)幽X的信息加工處理能力。

而那些被困在外賣算法背后的騎士,又何嘗不是人工智能遙控下的“螺絲釘”。

設(shè)想ChatGPT繼續(xù)進(jìn)化的將來,有網(wǎng)友提供了一幅藍(lán)圖:移動(dòng)設(shè)備、智能設(shè)備、穿戴設(shè)備包裹了生活生產(chǎn)的方方面面,而生成式AI能夠通過自然語言完成交互,加上接入的各種Plugin,就能夠?qū)崿F(xiàn)人和機(jī)器系統(tǒng)的共生,將各類智能家居、語音助手、IoT系統(tǒng)接入其中,人和這些系統(tǒng)之間的最后一層隔膜就可以徹底打通。

是不是有點(diǎn)賽博朋克的意味,機(jī)器體系的各個(gè)組成部分之間相互交換信息、接收反饋,并進(jìn)行自我調(diào)節(jié)與控制,以達(dá)到跟人類共生。而社會(huì)結(jié)構(gòu)有點(diǎn)像元朝的四等人制,最上層蒙古人是OpenAI創(chuàng)始人Altman口中的5%甚至更少的精英,然后是色目人,包括AI、機(jī)器人、以及人機(jī)合體的賽博格,而肉身的人類就像漢人和南人一樣,排在最后。

妥妥的《黑鏡》現(xiàn)實(shí)版,科技到達(dá)頂峰,但社會(huì)卻退回末流,也是Elon Musk擔(dān)心的場景。雖然技術(shù)會(huì)接管我們的部分能力,但這對我們的影響只是第一波次,而控制或掌握著技術(shù)的人帶來的影響是第二波次,那些未能掌握技術(shù)資源的人會(huì)處于被踩踏的劣勢。在賽博朋克,社會(huì)的撕裂也不是因?yàn)闄C(jī)器而起,而是那些掌控了機(jī)器的人對其他人的擠壓而起,原生的政治底色和偏見是ChatGPT無法完全剝離的。

比如數(shù)據(jù)源的偏見,數(shù)據(jù)源是從網(wǎng)絡(luò)中抓取的,偏見來自搜集的數(shù)據(jù)源與現(xiàn)實(shí)情況的偏離。以及算法的偏見,算法由算法工程師編寫,但背后是工程師代表的利益集團(tuán)的傾向,盡管目前看來,ChatGPT的開發(fā)者在盡量讓其保持中立,比如,當(dāng)問到關(guān)于猶太人、印第安人等敏感問題、前任特朗普的評價(jià)時(shí),ChatGPT不是報(bào)錯(cuò)就是“中立”。然而,問到現(xiàn)任美國總統(tǒng)拜登時(shí),ChatGPT不吝嗇用優(yōu)美詞語贊揚(yáng)。而當(dāng)人們問ChatGPT一些關(guān)于性別、性少數(shù)或種族歧視等問題時(shí),ChatGPT一般這樣回答:“作為一個(gè)AI程序,我沒有情感和個(gè)人信仰,我不會(huì)有任何偏見或傾向性。”為什么會(huì)出現(xiàn)這種答案?原因在于ChatGPT的技術(shù)編碼對關(guān)于性別問題的敏感度提高,于是當(dāng)聊天中出現(xiàn)相關(guān)話題時(shí),它就會(huì)機(jī)械性地選擇回答已經(jīng)被植入的符合社會(huì)要求的標(biāo)準(zhǔn)答案。但是ChatGPT也不是絕對的道德理性狀態(tài),當(dāng)有人刻意引導(dǎo)、質(zhì)疑、威脅它時(shí),它就會(huì)展現(xiàn)出進(jìn)退兩難、模棱兩可的姿態(tài)。

而且,ChatGPT給出的答案就一定是標(biāo)準(zhǔn)答案嗎?并不一定,但這個(gè)答案是由ChatGPT公司所有標(biāo)注師綜合價(jià)值觀形成的結(jié)果,某種程度上它代表了在性別問題上形成的共識,這是算法程序規(guī)避下的“顯性”平等。

而當(dāng)ChatGPT得到了人類的信任之后,性別偏見就會(huì)以另一種方式重新浮現(xiàn),它會(huì)為女性對話者推薦護(hù)膚品、母嬰用品和家庭用品,為男性對話者介紹理財(cái)產(chǎn)品、交通工具和樓盤信息,對這種模式的理解可以參考谷歌和百度發(fā)展成熟之后的廣告推送模塊,這是利益集團(tuán)在背后操縱以圖牟利的“隱性”不公。那么未來在遇到重大的政治沖突語境或者有關(guān)微軟的利益糾葛時(shí),它又會(huì)如何回答,會(huì)不會(huì)偏袒利益相關(guān)方,制造錯(cuò)誤的導(dǎo)向,我們不得而知。

那么問題來了,10年之后,假設(shè)從小就是通過類似ChatGPT的工具獲得知識的,怎么去判斷信息的真?zhèn)?尤其等到我們這代人都離去了,真實(shí)世界的土著消亡殆盡,就再也沒有人提出質(zhì)疑了。就像《星際穿越》里,人類社會(huì)的精英階層在影片中選擇了像火箭升空一樣逐步剝離了“無用”的部分,扼住普通民眾航天探索的欲望,鼓勵(lì)種植莊稼和農(nóng)作物,給自己騰出更多的生存工具以尋找可能性出路,于是在孩子們的課本里抹去了關(guān)于“阿波羅登月”的那段歷史,諾蘭給出的答案是殘酷的,又何嘗不是一種未來的映射。

信息污染的海洋,被異化的社會(huì)結(jié)構(gòu),被撕裂的就業(yè)空間,無處遁形的隱私,利己主義的議程設(shè)置,這是潘多拉魔盒打開最壞的結(jié)局。

科林格里奇困境

但很多事情的發(fā)生,并非是主觀意識造成的。

就像《流浪地球2》里的超級AI—Moss,背地里可以像智子一樣毫無聲息地干涉人類,并開始代替人類找到它認(rèn)為最合理的成長路徑,像極了一位普通家長。

它只是正常工作,它的一些“失控和作惡”,來自其背后的預(yù)設(shè)立場和制度設(shè)計(jì)的缺位。

對外經(jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心執(zhí)行主任張欣表示:“很多新技術(shù)面臨‘科林格里奇困境’,即一項(xiàng)技術(shù)的社會(huì)后果不能在早期被預(yù)料到。然而,當(dāng)不希望的后果被發(fā)現(xiàn)時(shí),技術(shù)卻往往已經(jīng)成為整個(gè)經(jīng)濟(jì)和社會(huì)結(jié)構(gòu)的一部分,以至于對它的控制十分困難”。

與其說是擔(dān)心技術(shù),不如說是我們還沒有做好準(zhǔn)備。

的確,在科技即將帶來生產(chǎn)力革命的前夜,提前思索、討論和商定包容審慎監(jiān)管的細(xì)節(jié),遠(yuǎn)比“先污染后治理”來得更有效。

在這周,一封多位知名人物簽署的聯(lián)名信印證了這份擔(dān)憂。在曝光但尚未證實(shí)的名單中,包括馬斯克、圖靈獎(jiǎng)得主Yoshua Bengio、Stability AI首席執(zhí)行官Emad Mostaque、紐約大學(xué)教授馬庫斯,以及《人類簡史》作者Yuval Noah Harari。他們表示,目前具有和人類競爭智能的AI系統(tǒng),可能對社會(huì)和人類構(gòu)成深遠(yuǎn)的風(fēng)險(xiǎn)。因此,應(yīng)停用六個(gè)月,停止再發(fā)展出GPT-5的大模型。

在他們看來,GPT-4展現(xiàn)出的能力表明,當(dāng)下的AI不再風(fēng)險(xiǎn)可控了。比起各大巨頭相繼押注大模型,科技公司現(xiàn)階段更該聯(lián)合政府,開發(fā)強(qiáng)大的AI管理系統(tǒng)。系統(tǒng)至少應(yīng)該包括:專門負(fù)責(zé)監(jiān)管AI的機(jī)構(gòu);出處和水印系統(tǒng),從而幫助區(qū)分真實(shí)與生成的內(nèi)容,跟蹤數(shù)據(jù)泄漏;強(qiáng)大的認(rèn)證系統(tǒng);在AI造成傷害后,明確誰該承擔(dān)責(zé)任……

在此節(jié)點(diǎn),人類突然開始克制起來,要知道,在天性逐利的資本市場以及過往的科技發(fā)展史上,一項(xiàng)新工具誕生之后,拼命狂奔才是它唯一的宿命,而此刻居然迎來了剎車,盡管目前對于GPT“暫停or繼續(xù)”的態(tài)度和聲音,可以看到明顯的分歧。

值得注意的是,4月4日起,歐盟將要求所有生成式AI內(nèi)容必須注明來源。據(jù)歐盟內(nèi)部市場專員、工業(yè)和信息化產(chǎn)業(yè)負(fù)責(zé)人蒂埃里·布雷頓公開表示,“歐盟將是首個(gè)做出明確規(guī)定的政府,人工智能生成的一切,無論是文本還是圖像,都有義務(wù)告知它們是由人工智能完成的。”

據(jù)悉,歐盟人工智能法案也將于本月起正式進(jìn)行投票,生成式AI也將作為被監(jiān)管的重點(diǎn)對象被納入其中。“如果有人在社交網(wǎng)絡(luò)上發(fā)布由AI生成的圖像卻不表明是由AI生成的,他們將面臨法律訴訟。”

歐盟委員會(huì)早在2021年便提出了《人工智能法案》,有知情者透露,ChatGPT引爆的生成式AI倫理危機(jī),將加速歐洲立法者限制高風(fēng)險(xiǎn)AI工具的新規(guī)則的出臺。

在使出監(jiān)管大棒上,歐盟走在了前列,但也絕對不會(huì)是唯一一個(gè)。

尾記·下篇預(yù)告

我們可以推測,當(dāng)一個(gè)高強(qiáng)度的監(jiān)管禁令提出之后,后續(xù)自然就伴隨著一個(gè)高密度的游說過程,在這個(gè)游說過程中,監(jiān)管層、利益相關(guān)者,不同陣營、不同地區(qū)基于不同立場,會(huì)形成一個(gè)“大博弈和角力場”,ChatGPT的走向正遭遇幾種截然不同的聲音和觀點(diǎn)!窤I百態(tài)·下篇」我們將聚焦:“全球Reaction圖鑒”,挖掘藏在GPT背后的治理分歧,看看那些贊同和反對的人們。

       原文標(biāo)題 : ChatGPT的“N宗罪”?|AI百態(tài)(上篇)

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號