亚洲一区二区电影_青青操久久_亚洲狠狠婷婷综合久久久久_国产欧美日韩在线观看精品

中國法學會副會長王利明:條件成熟時有必要針對人工智能特別立法
2023-07-06 21:49:43 來源:21世紀經濟報道 編輯:

21世紀經濟報道記者鐘雨欣實習生劉爽北京報道

人工智能狂飆,百模大戰正酣。一段時間以來,AI技術取得突破性進展,值得注意的是,隨之而來的侵權問題也給法律應對帶來了新的挑戰。7月6日,2023全球數字經濟大會知識產權與數字經濟發展專題論壇在京舉行。中國法學會副會長、中國人民大學一級教授王利明在論壇上表示,生成式人工智能目前所造成的侵權,還沒有完全超出《民法典》和《個人信息保護法》的相關規定,現行法律規則仍然可以作為處理和解決糾紛的依據。


(相關資料圖)

他同時指出,在未來條件成熟時,有必要通過特別立法進行有效應對,從而更好地預防生成式人工智能帶來的各種侵權風險,有效保障民事組織的合法權益,促進人工智能產業的發展

生成式AI可能侵害何種權利?

“人工智能侵權具有特殊性。”王利明表示。首先,人工智能侵權不同于一般的產品侵權。生成式人工智能不會對用戶的生命權、身體權或者健康權造成嚴重損害,也不會給用戶造成重大財產損失,因此與傳統侵權法中的產品責任不同。

其次,人工智能侵權也不完全等同于傳統的網絡侵權。生成式人工智能產生的虛假信息需要借助于用戶或者其他主體的傳播才有可能影響社會公眾。生成式人工智能產生的內容并不直接地具備公開性,其內容主要是向特定的用戶提供的,只要用戶不進行廣泛傳播,那么生成式人工智能生成的內容不會發生擴散,因此不會產生大規模的侵權現象。

但王利明同時指出,生成式人工智能可能會生成虛假信息,若造成大面積傳播,不僅會侵害受害人的人格權等權利,還可能引發嚴重的社會問題。

如何界定侵權主體?

王利明還談到了侵權責任主體的復雜性與多元性。服務提供者可能大量收集了網絡上的公開信息用于訓練,這些公開信息中可能既有隱私信息,也有個人信息,還可能涉及商業秘密。用戶在使用生成式人工智能的產品時,也可能采取故意引誘等方式使生成式人工智能產生虛假信息并且對虛假信息進行傳播。此外,服務提供者開發的生成式人工智能可能本身具有缺陷,用戶利用這些缺陷生產具有侵權性質的文字或者圖片。

“必須要區分不同場景,來明確不同的主體責任。”王利明說。

他認為,服務提供者的責任有積極作為侵權與不作為侵權的區分。服務提供者通過積極作為的方式實施侵權,例如,服務提供者在訓練生成式人工智能時故意利用了他人的個人信息。服務提供者通過不作為的方式實施侵權,例如未采取合理措施,導致系統出現漏洞或者被黑客攻擊,發生數據泄露;再如,在運行中發現、用戶舉報的不符合要求的生成內容時,未在合理期限內采取內容過濾、模型優化訓練等措施。“前一種的責任應當是比較重的。”

他還表示,有研究指出,從問答系統開發者的角度,可以利用信息檢索系統提供外部知識、有意識地提高模型的召回能力、在處理復雜問題前識別其復雜性并對其進行分解,從而在一定程度上可以避免出現幻覺現象。但如果服務提供者對此完全放任不管,可能會導致損害的進一步擴大。

在用戶責任方面,王利明指出兩種典型形態:一是用戶利用生成式人工智能來生成虛假信息。如果用戶在與生成式人工智能交流中,采取故意誘導的方式(如有意增加某一單詞出現的頻率、調整該單詞在句子中的位置或者給出與該單詞具有關聯性的單詞),或者故意指責某人存在性騷擾等行為,要求生成式人工智能生成圖片或引導生成式人工智能生成其想要的答案,甚至誤導其生成虛假信息,這些行為本身表明用戶是具有過錯的。

二是用戶利用生成式AI制作虛假信息,隨后用戶又將該虛假信息進行廣泛傳播。這種情況下,由于生成式人工智能的服務提供者沒有實施侵權行為,該生成式人工智能只是作為被用戶不當利用的工具,因此該服務提供者無需承擔侵權責任,用戶應當承擔全部的侵權責任。

王利明還表示,生成式人工智能的運營商與網絡服務提供者存在一定的差異,網絡服務提供者的責任僅限于在網絡空間中為用戶提供訪問、復制或者傳播信息的服務時產生的,但是生成式人工智能并不一定要在網絡空間中運行。

“生成式人工智能產生的侵權信息,是向用戶個人提供的,而非向不特定公眾提供的,因此不同于用戶在網絡空間中傳播的侵權信息,但在生成式人工智能提供之后,用戶利用其所生成的信息在網絡空間中進行散播,此時,用戶也是利用網絡服務進行侵權,因此與《民法典》第1194條的規定具有相似之處,從而引發了是否適用網絡侵權的避風港規則的問題。”王利明說。

如何認定侵權責任?

對于“如何承擔責任”的問題,王利明認為,歸責原則主要適用過錯責任原則。在服務提供者大規模采集個人信息的情況下,應當根據《民法典》和《個人信息保護法》的規定,承擔過錯推定責任。而對于其他的侵權行為,則應當采取過錯責任。“在用戶和服務提供者均有過錯的情況下,可以利用過錯進行分擔,也有利于準確地認定各方主體的責任。”

在生成式人工智能產品的固有缺陷致人損害的情形下,應采取何種歸責原則?

“固有缺陷是指生成式人工智能在現有技術無法完全解決的問題。關鍵要看其在技術上是否盡到了最大的努力,從而督促服務提供者努力采取技術措施改進現有技術。”王利明說。

他補充道,不能將生成式人工智能等同于一般的產品,也不能適用產品責任的歸責原則。生成式人工智能的固有缺陷可能會導致各種風險,但仍然可以采取各種方式來降低這種風險。依照鼓勵創新的價值取向,適用過錯責任原則更有利于人工智能技術的創新和發展。

王利明認為,應當對生成式人工智能虛假信息侵權適用“通知規則”,利用生成式人工智能實施侵權與利用網絡實施侵權在性質上具有類似性,Al產品出現虛假信息,并不是服務提供者所能完全避免和控制的。

如何禁止深度合成技術侵害他人合法權益?王利明指出,應當要求服務提供者在訓練時盡量避免大規模收集人臉、語音等個人敏感信息,要求采取技術措施添加不影響用戶使用的標識。“由于這些義務屬于法定義務,如果違反這些義務造成損害,就有可能構成侵權。”

談到個人信息和隱私的安全保障問題,王利明表示,為了防止大規模侵權,要重視風險的預防和防范,要求服務提供者在訓練時應當盡量保證數據的質量,要求服務提供者應該采取必要措施,保障數據安全。

“個人認為,生成式人工智能目前所造成的侵權,還沒有完全超出《民法典》和《個人信息保護法》的相關規定,現行法律規則仍然可以作為處理和解決糾紛的依據。當然,在未來條件成熟時,有必要通過特別立法進行有效應對,從而更好地預防生成式人工智能帶來的各種侵權風險,有效保障民事組織的合法權益,促進人工智能產業的發展。”王利明說。

關鍵詞:

相關閱讀
分享到:
版權和免責申明

凡注有"環球傳媒網 - 環球資訊網 - 環球生活門戶"或電頭為"環球傳媒網 - 環球資訊網 - 環球生活門戶"的稿件,均為環球傳媒網 - 環球資訊網 - 環球生活門戶獨家版權所有,未經許可不得轉載或鏡像;授權轉載必須注明來源為"環球傳媒網 - 環球資訊網 - 環球生活門戶",并保留"環球傳媒網 - 環球資訊網 - 環球生活門戶"的電頭。