人民網
人民網

人大代表:為防范重大風險 需針對人工智能應用立法

張雅
2019年03月05日07:55 | 來源:北京青年報
小字號
原標題:為防范重大風險 需針對人工智能應用立法

全新挑戰 邵志清表示,現有的案例中,有的是機器通過自主學習、提升識別能力幫助人實施犯罪,有的是因為機器完全自主的行為導致人員傷亡,這對如何認定責任主體和行為意願提出了全新的挑戰。

醞釀議案 全國人大代表、致公黨中央委員邵志清

3月4日下午,在第十三屆全國人民代表大會第二次會議上海代表團的“議案醞釀會”上,全國人大代表、致公黨中央委員邵志清,提出關於制定人工智能應用管理法的議案。邵志清表示,對人工智能的應用管理,重點應該圍繞倫理道德、資源獲取、主體認定、行為認定和責任劃分等方面進行立法。

其中,在倫理道德方面,明確禁止應用人工智能技術實施違反人類倫理道德的行為,特別是在基因工程、生命科學、情感意識等方面,“用法律為智能社會劃出倫理道德的邊界,讓人工智能服務造福而不是困擾危害人類社會”。

現象

AI帶來變革 社會問題凸顯

邵志清代表指出,隨著新一代信息技術的快速發展,人工智能正對人類生產生活方式帶來全方位的深刻變革。“我國人工智能在電子商務、自動駕駛、生活服務、醫療健康、工業機器人等領域的應用走在世界前列。”

他表示,在造福人類的同時,人工智能所帶來的社會問題也逐漸顯現,“開始從技術領域、民事領域向刑事領域轉變。比如:利用使用人工智能技術侵犯公民個人信息、競爭對手商業秘密,甚至危害人的健康生命、社會的安全穩定。”

邵志清代表舉例說,2017年9月,浙江警方破獲全國首例運用人工智能實施犯罪的案件。涉案平台利用人工智能技術快速識別驗証碼,截獲、販賣了10億多組公民個人信息,供合作團伙進行網絡詐騙。2015年7月英國《金融時報》報道了德國大眾公司的機器人“殺人事件”,一名工作人員被正在安裝的機器人突然抓起,重重摔向金屬板而不治身亡。“包括去年在生物領域,人工智能的運用也帶來了一些困擾。”

挑戰

若機器致人傷亡 歸責成難題

邵志清表示,現有的案例中,有的是機器通過自主學習、提升識別能力幫助人實施犯罪,有的是因為機器完全自主的行為導致人員傷亡,這對如何認定責任主體和行為意願提出了全新的挑戰。“傳統的刑法領域,隻有自然人才是刑法規制的主體,在人工智能應用場景下,很多機器成為了主體。”另外,機器的主觀意願的認定也面臨著困難。“對於這類問題,現有的法律難以規范。”

此外,2016年以來,一些國家和機構對人工智能法律制訂進行了一些探索。以自動駕駛領域為例,德國對《德國道路交通條例》所規定的“駕駛員在車輛行駛過程中全程保持警惕”、“駕駛員的手不能離開方向盤”等條文啟動立法修正。

近幾年,我國也對自動駕駛車輛測試方面進行管理規范,2017年,工業和信息化部開始就《智能網聯汽車公共道路適應性驗証管理規范(試行)》初稿組織業界和專家討論。隨后,多地發布自動駕駛車輛道路測試管理實施細則。“這些探索和實踐,為制定人工智能應用管理法提供了有益的參考和依據。”他補充道。

觀點

需要針對應用、歸責等進行立法

邵志清指出,為了防范重大風險,需要針對人工智能的具體應用進行立法。“人工智能的應用管理,應該重點圍繞倫理道德、資源獲取、主體認定、行為認定、責任劃分等方面進行立法。”

在倫理道德方面,明確禁止應用人工智能技術實施違反人類倫理道德的行為,特別是在基因工程、生命科學、情感意識等方面,用法律為智能社會劃出倫理道德的邊界,讓人工智能服務造福而不是困擾危害人類社會。

在資源獲取方面,明確禁止採集個人隱私、商業秘密、國家機密的資料、信息、數據,避免被人和機器惡意利用,從源頭上遏制人工智能的不法應用。

在主體認定上,明確具有自主學習、思考、行動能力的機器人成為適格主體的應用場景和應用前提等,明確機器人與自然人主體進行區分認定和共同認定的條件和依據等。

在行為認定上,明確認定機器人意圖的原則,特別是要解決機器人基於人工智能進行獨立判斷和決定所實施侵害的主觀方面認定問題。

在責任劃分上,明確責任劃分和處罰的原則。一旦有侵害發生,讓智能機器人的使用者、制造者、機器人本身承擔嚴格區分的相關責任。

(責編:董菁、李昉)

分享讓更多人看到

返回頂部