【問計民生】 給技術留空間 為原創增活力 ——代表委員談加強人工智能領域版權保護
輸入幾句寫作要求,一篇文章便可瞬間生成;給出幾個提示詞,不同風格的圖片便躍然屏上……當人工智能(AI)讓創作的門檻變得越來越低,著作權保護的新困境也隨之浮現。
今年政府工作報告提出,完善人工智能治理。在版權領域,人工智能治理面臨許多新問題。人工智能的訓練數據是否構成侵權?人工智能參與創作的邊界在哪里?“保護創作者權益”和“促進人工智能技術發展”該如何平衡?記者就此采訪了代表委員。
守住創作主體性
這些年,人工智能的快速發展,極大提升了人們的工作效率。但當人工智能進入創作領域,什么樣的作品可以算作創作者自己的作品,成為社會關注的焦點。
貴州省文聯主席歐陽黔森代表認為,由創作者提出核心立意、人物設定、故事框架、情感基調,僅用人工智能做資料整理、文字潤色和優化,最終由創作者自己全盤把控與修改定稿,才能算作創作者自己的作品。
例如,在2023年北京互聯網法院判定的一起“AI繪畫案”中,法院認為,原告李某使用人工智能,進行了一定的智力投入,比如設計人物的呈現方式、選擇提示詞、設置相關的參數、選定哪個圖片符合預期等,且涉案圖片由原告獨立完成,體現出原告的個性化表達。因此,原告享有對生成作品的著作權。
當前,法院在判斷“人工智能生成物是否構成作品”時,重點關注“人的獨創性智力投入”。
“該標準包含兩層含義,一是人在創作過程中起主導作用,AI本質上是工具;二是人對作品賦予了‘獨創性表達’,最終讓生成物體現了人獨特的想法和個性化安排。”上海市新的社會階層人士聯誼會會長張毅委員說,法庭上,用戶可提供向人工智能輸入的具體、詳細且具有個性化設計的提示詞,以及對人工智能生成的初稿進行篩選、深度編輯和再創作的過程記錄等證據,以證明自己的“獨創性智力投入”。
“人工智能沒有生命體驗、沒有情感溫度、沒有思想深度,更替代不了創作者扎根生活、感悟時代的靈魂表達。”歐陽黔森代表表示,“我們要擁抱技術,同時守住創作的主體性,才能創作出以人為本的作品。”
完善政策法規
生成式人工智能離不開海量數據的“投喂”。當這些數據包含受版權保護的作品時,原創者的權益又該如何被保護?
早在2023年,國家就出臺了《生成式人工智能服務管理暫行辦法》,其中第七條規定,生成式人工智能服務提供者應當依法開展預訓練、優化訓練等訓練數據處理活動;還規定,涉及知識產權的,不得侵害他人依法享有的知識產權。
在歐陽黔森代表看來,自己的作品是面向大眾的、公開的,被AI學習無法避免。但是,平臺與開發者不能忽視創作者的合法權益,應建立授權機制、公示機制,明確使用范圍與邊界。
在此前一些判例中,法院認定,對于大模型的數據輸入、數據訓練行為的侵權認定,宜采取相對寬松包容的認定標準,在滿足一定條件下,可認為是“合理使用”。不過,目前對于“合理使用”的認定邊界并不清晰,對海量作品逐一獲取授權又成本極高。
“這需要通過立法和政策來明確規則。”張毅委員認為,未來,在立法中可考慮增設針對算法模型訓練的特定豁免或法定許可制度,即在保障權利人獲得合理報酬的前提下,允許在一定范圍內使用作品進行訓練,以實現技術創新與權益保護的平衡。同時,對于特別敏感的數據,如個人信息、商業秘密等,則應堅持嚴格的授權同意原則。
助力行業良性發展
“保護創作者權益,是為了守護創新的源頭活水;促進人工智能發展,是為了開拓創新的浩瀚藍海。”張毅委員認為人工智能與版權保護并非天然對立,當前的目標是構建一個既能有效激勵原創,又能持續利用人工智能放大人類創造力的制度環境。
張毅委員建議,構建協同共治的監管格局,多部門共同參與形成監管合力;探索“以技術管技術”的治理方式,比如利用數字水印、區塊鏈存證等技術手段來追蹤溯源、固定證據;引入“監管沙盒”機制,在可控環境下對新技術、新產品進行壓力測試,及時發現風險,完善規則。
“人工智能行業尚處于發展初期,應秉持寬容的態度,但在監管和法律保障上,更要精準防控風險,為技術創新預留足夠的空間。”中國民營經濟研究會副會長李連祥委員建議,一方面,要完善相關法律法規,明確技術創新過程中的權利義務邊界,為技術的研發、應用和推廣提供清晰法律指引;另一方面,要加強執法力度,對侵犯知識產權等違法行為依法予以懲處,助力行業良性健康發展。
記者了解到,目前,最高人民法院正在積極推進涉人工智能、數據產權司法政策文件的起草,為新技術的應用劃定較為清晰的司法邊界。
“我們既要給技術留出發展的空間,也要保護創作者原創的積極性,讓創作者敢創作、能受益,讓人工智能的發展在法治軌道上走穩走實,最終實現創作與科技進步相互促進、雙向賦能。”歐陽黔森代表說。


