《人工智能法(學者建議稿)》發(fā)布,權(quán)益保障、產(chǎn)業(yè)發(fā)展為當前法學界AI治理研究焦點問題
南方財經(jīng)全媒體記者吳立洋上海報道
2024年3月16日上午,“AI善治論壇人工智能法律治理前瞻”專題研討會在北京舉辦。會上,由中國政法大學數(shù)據(jù)法治研究院、西北政法大學法治學院、中國信息通信研究院、北京航空航天大學法學院等單位專家聯(lián)合起草的《中華人民共和國人工智能法(學者建議稿)》(以下簡稱“建議稿”)正式發(fā)布。
自從2022年人工智能大模型熱潮興起以來,在深刻影響科技發(fā)展、積極與現(xiàn)有產(chǎn)業(yè)融合的同時,技術的高速迭代也衍生出多重治理問題。在本次研討會上,多位專家學者在介紹建議稿條款內(nèi)容的同時,也根據(jù)自身的研究內(nèi)容和產(chǎn)業(yè)實踐中出現(xiàn)的具體問題提出了自己的觀點。從這些發(fā)言與觀點,亦可一窺當前人工智能產(chǎn)業(yè)發(fā)展面臨的不同層次問題,以及在法律層面對其進行治理的多元化思路。
監(jiān)管應以人的要素為中心
縱觀本輪人工智能發(fā)展浪潮中社會關注的焦點問題,除技術發(fā)展問題外,個人信息保護、AI是否會取代人類、知識產(chǎn)權(quán)保護等問題,均與人在和AI相處中的權(quán)益保護息息相關。本次研討會上,多位與會專家在發(fā)言中也提到,當前對AI的治理需圍繞人類在數(shù)字社會的基本權(quán)益保障展開,強調(diào)科技倫理對技術發(fā)展中衍生出的各類問題的預防和抑制作用。
例如在本次發(fā)布的建議稿中,第三章就重點提及了“使用者權(quán)益保護”。北京航空航天大學法學院院長助理、副教授趙精武在介紹相關內(nèi)容時表示,其中蘊含的治理思路包括:
一是將平等權(quán)作為使用者權(quán)益保護的首項權(quán)利,能夠預防“唯數(shù)據(jù)主義”導致的人工智能產(chǎn)品、服務被應用于不合理、不科學的社會群體分類目的;二是將知情權(quán)作為使用者權(quán)益保護的重要內(nèi)容之一,因為該項權(quán)利是使用者行使其他權(quán)利的前提條件;三是正面回應生成內(nèi)容知識產(chǎn)權(quán)問題,采用“按照貢獻程度”的動態(tài)認定模式明確相關的權(quán)利主體,并明確否定了人工智能作為權(quán)利主體的可能性;四是關注勞動者和數(shù)字弱勢群體權(quán)益保護,明確規(guī)定禁止用人單位侵害勞動者的合法權(quán)益,尤其是利用人工智能技術對勞動者的工作情況開展不合理、不合法的監(jiān)控活動。
中南財經(jīng)政法大學知識產(chǎn)權(quán)研究中心徐小奔副教授則重點強調(diào)人工智能開發(fā)者與提供者的義務與規(guī)范,他指出,建議稿中重點區(qū)分了一般人工智能和關鍵人工智能,強調(diào)關鍵人工智能需要在組織機構(gòu)、風險評估、風險披露、安全應急處理等方面所應該承擔的關鍵義務,同時應該在不同行業(yè)領域?qū)﹃P鍵人工智能作出特別規(guī)范。
北京大學法學院副院長、副教授戴昕則認為,要建設比較客觀的認知環(huán)境,使用戶或者公眾理解如何規(guī)范應用人工智能。如果有風險,應當明確風險的具體指向。此外,可以結(jié)合保險機制設計責任救濟制度,在結(jié)合保險與合規(guī)免責的基礎上,可以考慮運行成本更低的嚴格責任,避免人工智能領域過錯責任認定帶來的復雜問題。
以治理推動發(fā)展
除了在數(shù)字化時代保障個人權(quán)益外,當前人工智能治理的一大重點方向是促進技術的進一步發(fā)展與應用。有別于此前其他技術革新,人工智能發(fā)展既有賴于數(shù)據(jù)的累積和算法的迭代,也需要在實際應用中找到與人類社會的結(jié)合點,通過更廣泛地應用實現(xiàn)自我進化。因此,在當前的治理思路下,如何兼顧合規(guī)與發(fā)展,是規(guī)范人工智能產(chǎn)業(yè)發(fā)展的關鍵問題。
中國政法大學數(shù)據(jù)法治研究院教授張凌寒表示,目前全球激烈競爭的格局下,“不發(fā)展是最大的不安全”。我國人工智能產(chǎn)業(yè)“領先的追趕者”的獨特國際生態(tài)位要求我們在技術和產(chǎn)業(yè)的國際競爭中必須以發(fā)展為制度設計的主要目標,安全問題也需要通過技術發(fā)展來回應和解決。
結(jié)合建議法第五章“監(jiān)督管理”內(nèi)容,中國信通院政策與經(jīng)濟研究所高級工程師程瑩表示,可以從以下三方面構(gòu)建相關管理體系:其一,建立人工智能監(jiān)管統(tǒng)籌協(xié)調(diào)機制,發(fā)揮其在戰(zhàn)略規(guī)劃、風險管控、規(guī)則制定、社會服務體系建立等方面的總體協(xié)調(diào)作用;其二,建立分級分類監(jiān)管制度,根據(jù)技術發(fā)展、行業(yè)領域、應用場景等因素動態(tài)調(diào)整人工智能分級分類標準;其三,完善監(jiān)管沙箱試點制度,一方面在準入條件、風險評估、審計、法律責任等方面給予主體相應便利、激勵或者責任減免,為人工智能技術產(chǎn)業(yè)發(fā)展提供寬松環(huán)境;另一方面加強風險管控和評估評測,統(tǒng)籌建立國家人工智能評估評測平臺,發(fā)揮多元協(xié)同力量。
“在把控風險的同時,也要促進人工智能發(fā)展?!?中國人民大學未來法治研究院執(zhí)行院長、法學院副教授張吉豫認為,事前的科技倫理審查確有必要,但可以考慮刪除一些不必要的事前義務。對于所有大型基礎模型未來是否都進行較嚴的監(jiān)管是需要考慮的,并非所有人工智能均需要備案,備案是進入市場的前置要求還是僅為一項待完成的任務有待思考。從促發(fā)展的角度而言,監(jiān)管行為本身的規(guī)范也是比較重要的方面。
中國社會科學院大學互聯(lián)網(wǎng)法治研究中心執(zhí)行主任劉曉春則建議,一方面,在立法上構(gòu)建支撐人工智能發(fā)展的促進型基礎設施,例如建立促進高質(zhì)量數(shù)據(jù)集合的生產(chǎn)和獲取、促進算力資源優(yōu)化分配的基礎機制等;另一方面,在承擔加重義務的特定類型人工智能部分,例如關鍵人工智能、通用人工智能、特殊類型人工智能等,建議明確科學、清晰、風險導向的基礎概念和類型,為人工智能產(chǎn)業(yè)快速健康發(fā)展樹立具有較強確定性的規(guī)則和責任機制。