首頁>要聞 要聞
“刷臉”究竟有多靠譜
新華社北京8月6日電新聞分析:“刷臉”究竟有多靠譜
新華社記者李宓
2009年,多名美國亞裔消費者投訴,尼康相機的“眨眼提醒”功能總是錯誤地提示他們拍照時眨眼了;2015年,美國谷歌公司基于面部識別技術開發的一種圖片應用,將一位用戶的黑人朋友標記為“猩猩”。
面部識別技術越來越先進,并不斷滲透我們的日常生活。一些人樂觀地認為,“刷臉”時代正在向我們走來。可是,“刷臉”真的靠譜嗎?至少從目前看,還得打上一個問號。
準確度欠缺
最近一段時間,“刷臉”接二連三地出糗。
在美國,有機構使用亞馬遜公司的面部識別系統掃描了535名國會議員的面部照片,并與相關數據庫中的2.5萬張罪犯照片比對,結果28名議員被系統識別為罪犯。
英國多個城市的警方開始試應用面部識別技術。但最近公布的有關數據顯示,倫敦警方使用的面部識別系統錯誤率高達98%,被批評為“幾乎完全不準確”。倫敦警察局局長克雷茜達·迪克對此辯護說,她不認為這項技術會帶來大量逮捕行動,但公眾“期待”執法機構測試使用面部識別技術。
英國警方曾將面部識別技術應用在音樂會、節日慶典或足球賽等場合。據英國媒體報道,在威爾士加的夫舉行的2017年歐洲冠軍聯賽決賽中,警方使用的面部識別系統產生2400多次匹配,其中2200多次是“假陽性”匹配,即把普通人錯認為犯罪嫌疑人。
美國麻省理工學院“媒體實驗室”研究人員測試了微軟、IBM(國際商用機器)和中國曠視科技3家公司的面部識別系統,讓3個系統判斷1270張圖片中人物的性別。結果顯示,3個系統對膚色較淺男性的判斷錯誤率都低于1%,識別效果較好;但對膚色較深女性的判斷錯誤率從21%到35%不等,識別效果差。
訓練數據不理想
對于“媒體實驗室”的研究,IBM公司沃森和云平臺業務首席架構師魯奇爾·普里說,人工智能系統深度學習的有效性有賴于訓練的基礎數據。即使人工智能模型本身設計優異,不理想的訓練數據只能導致高錯誤率及帶有偏見的判斷。曾有研究顯示,在美國廣泛使用的一套面部識別系統訓練數據中,超過75%的圖像為男性,超過80%的人為白人。
英國《自然》雜志在近期一篇評論文章中也指出,無論在學術界還是產業界,開發出復雜算法會廣受贊譽,但相對而言,很少有人關注數據如何收集、處理和歸類。導致人工智能產生偏見的一個主要因素,就是訓練所使用的數據質量不佳。
麻省理工學院人工智能研究人員喬納森·弗蘭克爾認為,很多用于面部識別的圖片質量不佳,尤其是那些街頭監控攝像頭拍下的圖片,也是導致面部識別技術在實際應用上經常出錯的一個重要原因。
憂心隱私安全
除本身存在技術問題,面部識別大量使用還引發了對個人隱私的擔憂。美國喬治敦大學法律中心一份關于技術與隱私的報告顯示,美國目前有16個州允許美國聯邦調查局使用面部識別技術,將犯罪嫌疑人照片與相關數據庫中的駕照照片進行比對。
美國數字化權利保護組織電子前沿基金會的詹妮弗·林奇說,很多人并不同意警方在尋找罪犯時比對自己的照片,他們并不知道州政府有這種政策。
出于對隱私和安全的擔憂,一些人甚至研制推出了反監測裝備。德國人亞當·哈維曾在德國混沌通信大會上介紹了自己研制的“假面”產品,比如在衣服上繪制起迷惑效果的圖案,讓面部識別系統難以識別真實的臉。
編輯:秦云
關鍵詞:面部識別 刷臉 美國 靠譜