首頁>協商>協商建言
一場事關“未來”的協商
——全國政協“人工智能發展中的科技倫理與法律問題”雙周協商座談會述評
人民政協網北京12月24日電(記者謝靚)2020年12月23日,全國政協今年最后一場雙周協商座談會,探討的是一個關于“未來”的話題——人工智能發展中的科技倫理與法律問題。
臨近歲末,沒有什么比談論未來更讓人期待。即將過去的這一年里,新冠肺炎疫情重創了整個世界,它是危機,也是啟示:要盡可能做更多的準備,以應對變局中未知的風險與不確定性。
如果要列出能夠改變世界格局與歷史進程的要素,人工智能必居其一。
作為引領新一輪科技革命和產業變革的戰略性技術,人工智能是時代發展的巨大機遇,也給科技倫理和法律帶來挑戰,它的“未知”遠遠大于“已知”。黨的十九屆五中全會將人工智能作為具有前瞻性、戰略性的國家重大科技項目進行部署,是科學應變,更是主動求變。
在政協這個“攬八方才俊、集各界精英”的平臺上,探討“人工智能發展中的科技倫理與法律問題”這樣前沿、跨學科的課題,可謂適得其所。來自不同界別、代表不同利益訴求的委員和專家對人工智能潛在風險進行預判,研究構建倫理規則和法律規范的可能性,在與職能部門的交流中釋疑增信,在思想的碰撞中激發新的思考,這本身就是一種建設性成果,是為人工智能發展注入人文關懷的有益實踐。
■“技術之手”會加深社會不公的溝壑嗎?
上世紀30年代,喜劇大師卓別林自導自演了一部經典電影《摩登時代》,描繪了第二次工業革命后底層工人被“機械化”洪流裹挾的無奈。
在歷史長河中,每一次重大科技變革都會對既有社會秩序構成沖擊,人工智能也不例外。
會上,張大方常委表達了自己的擔憂:“由于數據質量和算法的原因,很多人工智能軟件蘊含性別、年齡、種族歧視,很難發現也很難消除。一些掌握先進人工智能技術的企業或個人可能會利用優勢地位獲取更多的資源,影響社會公平。”
這當然不是危言聳聽。
前不久,一篇《外賣騎手,困在系統里》的文章在網上刷屏。為提高配送效率,騎手們在平臺算法的控制下疲于奔命。這一報道擊中了很多人的痛點:我們會不會也被算法操縱?
與騎手困境形成對比的是平臺企業由此獲得的豐厚資本紅利,李迎新委員由此提出疑問:巨型網絡交易平臺獲得價值密度極高的“大數據”,進而以“精準營銷”等方式獲取商業利潤,這種分配機制是否公平?是否可能導致收入差距的進一步加大?
其實,如果把問題放在當前的歷史節點中審視,就能更深切地理解這種擔憂。
剛剛結束的十九屆五中全會首次提出把全體人民共同富裕取得更為明顯的實質性進展作為遠景目標。這意味著我們要繼續把“蛋糕”做大,還要進一步把“蛋糕”分好。顯然,任由技術的無形之手加深社會不公平的溝壑,不是這個時代應有的價值觀。
“上限不能過,底線不能破,紅線不能踩。”張大方說,應強化政府引導、行業自律、企業自覺及公民共識,讓每一個人都能成為人工智能受益者。
“任何一項新技術的出現都可能帶來就業、收入分配等方面的社會問題。”會上,相關部委負責同志回應了委員的擔憂并表示,問題確實存在,但無需過慮,因為技術導致的公平問題是可以在發展過程中得到克服的,這已被歷史所證明。
“既不要把人工智能看成洪水猛獸,也不能放任不管,要用發展的眼光看待發展中的問題。”汪鵬飛委員說。
也許,相對于簡單的道德審判,我們更需要做的是完善相應的制度設計。守住現實社會的公平底線,“算法偏見”就不會有機可乘。
■“弱人工智能時代”的數據安全
1951年,計算機之父阿蘭·圖靈(AlanTuring)曾提出:"如果機器能思考,那么它很可能比我們更加明智……這種新的危險當然讓我們焦慮。”
危險有多遠?這是很多非業內人士共同的問號。
為籌備這次會議,全國政協調研組赴安徽、江蘇、北京開展專題調研。調研中,大家看到了人工智能在交通、家居、醫療、媒體等諸多領域的應用場景,也由此深化了一個認知:我們仍處于“弱人工智能時代”。
弱人工智能指的是只能解決特定領域問題的人工智能,它還不具備自主意識。強人工智能的“奇點”到來還有多久,在科學界依然沒有最終定論。因此,王小川委員建議,“討論倫理及法律問題,‘長遠’和‘眼下’要分開看。”
前景不明朗,就不能過早“畫地為牢”,委員與部委負責同志一致認為,要“讓子彈飛一會兒”。
與其憂心尚未發生的威脅,不如聚焦業已存在的風險。現實中人工智能技術應用的突出風險是什么?不少委員談到了數據隱私與安全。
疫情期間,“刷臉”成為大多數人通行必不可少的步驟。“人臉、指紋、DNA等生物特征數據,個人醫療檔案數據等都具有唯一性,一旦被采集到不安全的網絡上,極有可能引發巨大社會風險。”從事網絡安全技術行業的談劍鋒委員指出了問題的關鍵。他建議采取負面清單模式,限制企業自行采集收集和壟斷數據,同時對不可再生數據進行統一管控。
會上,黃愛龍委員談到App個人信息被過度采集,姜偉委員談到數據的權屬不明確,黃錦輝委員談到要監管企業所使用數據的質量,雖意見各有不同,但立場都是一致的:保護數據安全刻不容緩。
對于數據安全要明確法律上的紅線,這項工作已經開始——今年出臺的民法典對收集、處理個人信息作出了明確規定,全國人大也把個人信息保護法、數據安全法列入了國家五年立法規劃第一序列。會上,相關部委負責同志的積極回應又給大家吃下一顆定心丸:數據權屬的界定與更嚴格的數據隱私保護規范已納入決策層的考量范圍。
當一個問題反復出現在社會公共議題之中,往往就是問題得到解決的契機。對于保護數據安全,我們或許可以抱有更多信心。
■搶占制高點
前沿和關鍵領域的技術創新,向來是傳統工業強國的主戰場。幸運的是,在人工智能領域,中國已躋身國際“第一方陣”。
人工智能依托大數據而生,以應用場景為核心,而中國龐大的互聯網體量和豐富的場景應用,是人工智能發展最豐沃的土壤。
我們探索建立人工智能發展“規則”,不僅是防范潛在風險的需要,也是搶占國際競爭制高點的必然選擇。
現在,美歐等國家以“共同價值觀”劃界全球人工智能治理版圖的趨勢日盛。“倫理法律問題已成為全球人工智能話語權和主導權競爭的焦點。”會上,相關部委負責同志如是說。
好在,研究探索倫理法律問題的“中國實踐”已經拉開帷幕。全國政協社法委副主任陳智敏認為,應充分利用我國人工智能發展的比較優勢,在人工智能治理的國際規則制定上占據主動、擁有更多話語權。
會上,陳群常委建議在國家層面上加快相關制度創新,布局建設人工智能認證體系和全球賦碼系統,以我國超大規模應用市場為牽引,對全球人工智能產品開放登記和提供法律保護,推動我國相關法律法規更多成為國際通行規則。對此,清華大學法學院院長申衛星建議構建綜合性立法和具體場景立法相結合的“總-分”式立法體系,他說,這種設計將有利于增強國內外對于中國人工智能技術的信任度,提升人工智能國際競爭中的軟實力。
1818年,英國的瑪麗·雪萊創作了世界上第一部科幻小說《弗蘭肯斯坦》,以遠超時代的想象力虛構了一個“人造人”的悲劇。當時20歲的瑪麗大概不會想到,兩百余年后,一個萬億級人工智能市場已蓬勃興起。
勇敢擁抱技術變革,是因為聽到了潮水的聲音。我們正在闖過布滿暗礁的藍海,與未來迎面相逢。
編輯:劉乙潼
關鍵詞:數據 委員 未來