IBM將不再開發(fā)用于大規(guī)模監(jiān)視的面部識別技術
IBM昨日表示,它將不會提供或開發(fā)通用的面部識別技術,以鼓勵執(zhí)法部門負責任地使用該技術。多年來,該公司一直是該領域的佼佼者,提供多種解決方案。
在致國會的一封信中,IBM首席執(zhí)行官 Arvind Krishna談到了George Floyd,Ahmaud Arbery和Breonna Taylor的去世,并表示公司希望與官員合作以實現種族平等。
克里希納建議,需要通過警察改革,負責任地使用技術以及擴大技能和教育機會來對主要政策進行改變。為此,他說IBM將不會提供通用的面部識別技術,因為它可能會用于大規(guī)模監(jiān)視:
IBM堅決反對并且絕不容忍將任何技術(包括其他供應商提供的面部識別技術)用于大規(guī)模監(jiān)視,種族歧視,侵犯基本人權和自由或任何與我們的價值觀和信任原則不符的目的和透明度。我們認為,現在是時候開始關于國內執(zhí)法機構是否以及如何使用面部識別技術的全國對話。
用于監(jiān)視的面部識別一直是隱私專家所擔心的。今年早些時候,《紐約時報》的報告揭露了Clearview AI公司,該公司通過抓取數百萬個網站并將該解決方案出售給數百家執(zhí)法機構來開發(fā)面部識別系統。該公司對準確性的錯誤主張可能導致了一些錯誤肯定。
今年3月,印度承認其使用面部識別技術來識別 在美國總統唐納德·特朗普(Donald Trump)訪問該國時在新德里首都發(fā)生騷動的騷亂者。去年,《印度快報》報道說,德里警方記錄了抗議印度有爭議的《公民身份修正法》(CAA)的鏡頭,并通過面部識別軟件進行了處理。除此之外,中國還以通過 多種監(jiān)視技術(包括面部識別工具)窺探其公民而聞名。
美國國家標準技術研究院(NIST)在2019年發(fā)表的一項研究表明,與高加索人臉相比,面部識別系統對亞洲和非裔美國人臉部的誤報率更高。
所有這些例子都指出了潛在的偏見,大規(guī)模監(jiān)視的危險以及通過面部識別進行有針對性的分析。去年,IBM發(fā)布了一個龐大的數據集,其中包含來自Flickr 的各種面孔,以減少AI的偏見。但是NBC的一份報告發(fā)現,該公司未能通知那些照片中的人 其圖像已被用于此目的。
盡管IBM為種族平等而退出通用AI是值得稱贊的一步,但它要做的還遠遠不止這些。有許多公司提供IBM解決方案的替代方案。因此,這家科技巨頭將需要積極參與減少偏見和政策制定,這將阻止面部識別技術被用于監(jiān)視。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統治的開始
- 2 北電數智主辦酒仙橋論壇,探索AI產業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?