當前位置:首頁 > 科技 > 正文

發展人工智能技術規矩不可少

  近日,兩件與人工智能技術應用有關事件引發社會廣泛關注。第一件是一款視頻編輯軟件在社交媒體刷屏。該軟件可以方便、快速地将視頻中人物換為用戶上傳的任意人的臉。實際上,這種視頻換臉很早以前利用專業視頻編輯軟件也可以實現,不過需要使用者有相應的技術,過程複雜。現在人工智能技術将這一複雜的技術過程簡單化、快速化,普通人也可以輕松駕馭。第二件是一張學生課堂行為分析的圖片,人工智能技術将學生擡頭、看手機、低頭、記筆記、打瞌睡等行為進行統計标明。

  換臉應用有兩點需要我們警惕:一是這種技術對社會信息傳播秩序帶來的沖擊。慣常來說,視頻對信息的保真度是高于文字和圖片的,視頻能夠相對準确傳播信息,是社會信息傳播系統重要的媒介符号。這種易得、簡單的換臉應用程序,如果被濫用勢必引發傳播秩序的混亂。二是這類應用軟件收集人臉信息的合法性、安全性、可靠性存疑。人的面部、虹膜、指紋等生物特征識别信息,是重要的個人隐私信息。這類信息的重要性遠大于地址、密碼等類型信息。地址、密碼可以修改,面部特征、指紋等生物信息終身唯一,無法更改,洩露後果的嚴重性,怎麼說都不為過。如果這類信息一旦洩露,無可挽回,技術的開發者也無能為力,不論是技術開發者主觀濫用,還是遭到黑客攻擊、無意洩露,都難以挽回。現在刷臉在金融支付、交通出行、公共安全等領域已經廣泛應用。面部生物信息的洩露,給整個社會體系帶來的影響難以估量。

  人工智能将學生課堂行為量化分析的問題在于,一是這種技術對學生行為分析的準确性、可靠性與可信度存疑。人工智能終究是一種算法,其當下能做到的是對個體行動軌迹的捕捉,不具備對人類豐富複雜的社會行為及其發生的場景準确判斷和識别。同樣是一個動作其意義可能差别很大。技術可以檢測到學生低頭寫字,但到底寫的是上課内容還是無關信息,顯然再高級的人工智能也無法判斷。人工智能可以準确識别學生是否出勤,但将課堂這麼複雜豐富的人類行為場景,進行絕對量化的分析,不可靠。其次,即使技術上是可靠的,那麼這種将學生課堂學習的行為如此量化來管理的道德正當性存疑。我們講教育以人為本,因材施教,人不是機器,不能将學生行為進行徹底的數字化管理,技術不能奴役人。

  這兩件事反映出人工智能技術在快速發展和廣泛應用,然而我們整個社會似乎對這種技術的認識還有待深化,對其帶來的風險和挑戰還沒有做好治理準備。

  在認識方面,人工智能技術可以高效、有效解決很多領域的問題,但要避免所有問題都由人工智能解決。人工智能對解決那些機械、枯燥、數據量龐大的、簡單重複問題有效,但其缺少人情味、人性,所以在需要體現人的精神、情趣、想象、體現人性的工作,一定要人來做,不能一味追求技術解決。技術不是萬能的。

  人工智能技術治理關鍵是抓住三個核心關鍵問題:算法、數據和算力。政府要在涉及算法和數據兩方面來立法和監督。要确保算法公開透明、可監督。數據方面對相關技術産品使用數據的種類、規模方面強化監管。在涉及人面部特征信息、指紋、血液等人體生物特征信息要設立嚴格的标準,從采集、傳輸、存儲等環節規制,确保涉及個人安全和國家安全信息不被濫用和安全可控。數據應用的用戶規模要與企業的安全保障能力匹配。此外,在涉及重要領域和廣泛人群的技術應用要建立人工智能使用的倫理與安全評估機制,類似于醫學研究的倫理評估環節,确保技術發展的正确方向和合理使用。建立第三方專業組織監督人工智能技術應用的安全性、可靠性與可控性。

  企業要落實主體責任。在技術開發環節,遵循人工智能開發的基本原則:公平、可靠與安全、隐私與保障、包容、透明和負責,确保技術的可靠性、合法性和符合人類倫理規範。企業要有底線意識,不觸犯相關的法律法規,要遵循基本的社會價值規範和公共道德,承擔相應的社會責任。在各個軟件分發平台,要嚴格檢驗應用的權限,确保用戶下載應用的安全可靠性。

  用戶方面,要提升公衆的技術使用素養,培養正确認識、合理使用技術的能力。也要研究在人工智能技術應用場景中,考慮用戶選擇權,包括是否使用人工智能技術以及使用的程度。

  人工智能作為革命性的新技術,沒有人能準确預測技術的未來結果。在對互聯網治理上我們過去奉行“先發展後治理”的理念,人工智能技術應用的行業領域廣泛、算法不透明、結果隐蔽,其治理與要其發展同步,應秉持“邊發展邊治理”的理念。最終讓人工智能技術更好服務人類社會發展。

  (作者:張建軍,系天津師範大學新聞傳播學院教師)

你可能想看:

有話要說...

取消
掃碼支持 支付碼