AI訓練模型是否侵權?新一輪浪潮 法律、版權、利益平衡如何應對
AI技術高歌猛進,不久前,OpenAI文生視頻模型Sora橫空出世,標誌AIGC領域裏程碑式的進展,引全球熱議。
埃隆·馬斯克(Elon Musk)評論:「gg humans(人類認賭服輸)」。
在AIGC(生成式人工智能)狂飆的這一年多,對AI的抗議之聲日漸壯大。2023年7月,好萊塢發起集體罷工,創作者要求重新談論勞資關係,並抵制AI入侵。
工會主席法蘭·德瑞雪提到:「如果現在不昂首挺胸,我們就會陷入困境,都將面臨被機器取代的危險。」
12月,《紐約時報》以侵犯版權訓練AI為由,向OpenAI、微軟提起訴訟。今年1月,由AI偽造的泰勒·斯威夫特不雅照在網上瘋傳,對其名譽造成嚴重損害,引全球粉絲憤怒。AI浪潮勢不可逆,
未來,人類創作者如何與AI博弈與共存?這其中的法律、版權和倫理問題,以及新舊兩派的利益分配訴求被擺上枱面。但我們發現,國內最受衝擊的行業之一,畫師們卻陷入另一種困境:噤若寒蟬。
一條與數名國內畫師,防AI訓練應用Mist的開發團隊成員,以及天元律所知識產權律師李昀鍇對話。嘗試呈現AI時代浪潮下的另一種聲音。據悉,截止發稿前夜,中國法院作出了全球首例生成式AI服務侵權的生效判決。
01、被侮辱與被損害的人
「AI社羣裏的極端者,與其説是『賽博強盜』,不如説是『賽博強姦犯』」,畫師小鹿告訴我們。
她發來國內AI社羣stage1st論壇裏的聊天截圖,那是關於如何「煉丹」不犯法的討論,附和的人讚歎真是「劫富濟貧」,還有人給出「這年頭了,法不責眾,煉得越多越安全」的方法論。
在國內,訓練AI模型被稱為「煉丹」,另一個動詞是「喂」,更專業的説法則是「爬取」——將從互聯網上爬取的數據用於AI模型的訓練。
眾所周知,AIGC(生成式人工智能)並不憑空產生內容,訓練AI需要龐大的數據集(dataset),這些數據可能本身就存在問題。
2022年底,加拿大籍藝術家Sam Yang以「為什麼藝術家受夠了AI繪畫」為題發佈了一則視頻,引起廣泛討論。他解釋了生成式AI訓練模型的法律隱患,「你的任何藝術作品,甚至你自己的照片、房子、周邊環境,一經上傳,就會被「爬」走選入AI訓練系統……這對我們每個人來説都是產業級別的侵權行為。」
在國外,對生成式AI的潛在侵權性,各行各業開始發出抨擊聲音,主要集中在藝術創意和影視媒體行業,涉及藝術家、畫師、演員、編劇、作家和新聞機構等。在社交媒體X上,人們打上禁止AI無授權訓練的tag,浩浩蕩蕩地進行宣傳。而在線下,人們罷工遊行、提起訴訟。
在國內,問題似乎走向另一個極端:「進步道德」成為一面大旗。「一旦你站出來阻止自己的作品被『煉丹』,AI社羣的人會嘲笑你是紡織女工和馬車伕」,畫師小鹿説。
在一些「煉丹者」看來,畫師們「跳腳」,就像工業革命下怒砸機器的紡織女工,無法正視自己終將被取代的命運。提出質疑聲音的畫師,很多都被扣上「小畫師」的帽子,這頂帽子上有時還被貼上另一個標籤:「註定被時代淘汰的馬車伕」。
所謂「小畫師」,用意很明顯,指的是那本不屬於行業金字塔尖的5%,但這並不能解釋一些更極致的「煉丹」行為。
在一份被曝光的遊戲行業畫師「人礦名單」裏,「煉丹者」搜刮超過500名畫師的作品,以奶牛名稱、牛奶質量、可持續性、枯竭指標將畫師分類,無論作品質量高低都是可「煉」的。其中,「可持續性就是畫師是否知道自己作品被訓練AI,以及知道後是否堅持更新。」曝光這份名單的人解釋説。
畫師李卡發現,在生成式AI技術的極端擁護者社羣,灰色產業鏈已經形成。有畫師的作品被訓練成黃色模型,在網上發佈甚至出售,這給畫風的主人帶來了很大的困擾。「如果AI『溶』的是商業流水美術的圖,那是侵權。而如果是真心創作的藝術圖,那可能是精神層面乃至心血的打擊。」李卡補充道。
在另一個AI相關的QQ頻道,有人揚言:「搞黃色才是AI的第一發展生產力」、「不能搞黃色的AI註定被淘汰」。這一問題並不侷限在國內,事實上,在國外著名的AI模型網站civitai上,排行榜靠前的模型幾乎都是色情成人模型。
與未經授權盜取畫師作品訓練AI色情模型併產生商業利益——在法律層面上對這一行為做出判斷是很容易的——相比,畫師羣體更憂心的是AI模型對他們創作風格的侵蝕,以及無節制的AI生圖所導致的大眾審美降級。
在畫師小鹿看來,畫風是一個畫師最核心的東西,「但1000個人用AI跑出來都是一模一樣的畫風」。另一方面,AI訓練模型還可能讓某一個畫風被迫爛大街,從而對原畫師產生反噬。「AI的爹」成了一個網絡梗,指的是AI模型生成作品畫風的來源者。
去年,畫師「小狗」就曾因作品被訓練AI模型並商用,導致畫風「爛大街」。當被質疑自己的作品是不是AI生成時,畫師本人不得不發佈一個完整的繪製過程視頻,來證明自己不是AI。
畫師邵冰所在的公司美術流程照常進行,但據他觀察,身邊部分畫師的甲方轉向了AI出圖,這不僅是稿酬降低這麼簡單,「最關鍵的是AI實際上並不能輔助畫師,一些遊戲玩家對AI很反感,認為這是廉價和敷衍的象徵。而最荒謬的是,行業內用了AI輔助的工作室,最大的工作量反而是想方設法去除『AI感』,讓玩家看不出來摻了AI。」邵冰總結道:「畫師從創作者變成了給AI擦屁股的人」。
有些人訓練AI模型甚至不是為了商業利益。遊戲行業從業者小一告訴我們,「他們拿數據訓練模型不為利和名,只為看畫師倒黴、生氣跳腳,以此為樂。」這背後是掌握先進技術的權力感,以及新道德對舊道德的傾軋。
去年著名的「茶冷事件」中,畫師茶冷表達了她對AI技術的立場:「並非抵制AI技術本身,而是抵制無版權煉丹,技術沒有好壞善惡之分,有好壞善惡的永遠都是使用技術的人類。」
這個聲明一經發出,畫師本人就遭到了網暴。AI社羣裏有人「人肉」出茶冷的真實身份,用Chat GPT生成了一封造謠郵件發給茶冷攻讀博士學位的學校,甚至把她的生活照製成AI黃色模型在網絡上傳播。
在國內畫圈,討論AI問題已經風聲鶴唳。在畫師邵冰看來,和國外不同的是,國內似乎不具備提出質疑聲音的條件。「只要發聲,就會被扣上紡織女工和馬車伕的帽子,現在的風向是『AI是人類的未來』,大家只好打碎了牙齒往肚子裏咽。」
事實上,大部分畫師並不抵制AI技術本身,畫師小鹿認為,「不擁抱工具的後果是被時代淘汰」的評價,對創作者羣體並不公正。「畫師羣體反而是最願意接受科技變化的一羣人,各種繪畫工具、3D輔助建模工具,只有出現我們都樂意去嘗試。」
但幾位畫師都提到了生成式AI與人類之間「畸形的寄生關係」,因為前者並不憑空產生內容。
「就像我們從沒見過汽車需要吸馬車伕的血去驅動。生成式AI最矛盾的地方是,新的體系還沒有成熟和規範,舊的體系已經被擾亂了。」畫師小一説。
02、事與願違
在AI技術勢不可擋的浪潮下,關鍵的問題是:為什麼人們持續提出異議?
據圖像預處理應用「Mist」的開發成員楚盟觀察,從2012年開始,AI深度學習技術一直是研究熱點。大約在2022年,也就是在Chat GPT和Stable Diffussion相繼出現之前,關於AI話題的討論甚至曾一度走向「AI泡沫何時破滅」的追問。
「事實上,和本輪AI浪潮直接相關的技術和算法在此前已經出現了。2022年之後,AI之所以突然實現一個大的躍升,是因為人們發現,大幅度提高訓練AI所用的算力和數據的規模,能帶來AI性能的根本性提升。我覺得這是此次AI浪潮的底層邏輯。」楚盟説。
但從目的的角度,楚盟有着自己的思慮。他意識到,生成式AI的發展現實,似乎已經有點兒「事與願違」。
「我很認同網上流傳的一段話:『研發人工智能是希望人工智能幫我們去掃地、做飯、耕田,這樣人類就可以去寫詩畫畫了。但現在研發出來的人工智能全在寫詩畫畫,反而把原來寫詩畫畫的人趕去耕田、做飯。』」楚盟補充道。
團隊的三位初始成員本科都畢業於上海交通大學。其中,楚盟和另一位成員來自於計算機專業,另一位成員Chris則是學法律專業。去年12月,同樣有CS專業背景的第四位成員Melo加入。他們通過在圖像上添加肉眼難以發現的水印「Mist」,破壞模型對這些圖像的學習效果,保護平面藝術作品不被繪畫AI簡單模仿。
一切起源於楚盟和Chris的一場對話。在2022年9月,以Stable Diffusion為代表的AI繪畫技術一經發布,便成為爆款產品,但也極快形成了針對AI繪畫持有不同看法的兩派陣營。
支持者認為這是「不可抵擋的技術浪潮,是創意生產力的新形式」。另一重現實則是,AI繪畫憑藉其較低的成本,不遜色於一般商業畫作的質量,迅速入侵了藝術市場,改變了原有的生態。彼時,AI訓練素材在法律上是否侵權,在世界範圍內仍無定論。
楚盟向Chris提問,「你認為AI繪畫存在著作權侵權問題嗎?許多訓練素材都來自於畫師的作品。」從法律的角度出發,Chris覺得答案並不確定,「這些訓練大概率沒有得到任何授權,但法院也很可能認定大模型訓練屬於版權法體系中fair use doctrine(合理使用原則)下的場景。」
但幾個年輕人還是決定做點什麼,並最終選擇先從技術上為畫手們築起一道矮牆。
麻省理工學院的PhotoGuard項目與此同時,在國外,相似的技術保護行為也在不斷進行。麻省理工學院(MIT)發佈PhotoGuard項目,通過技術手段防止人們發在網上的照片被生成式AI模型惡意操縱;芝加哥大學的Glaze項目,也旨在打擊AI對於「藝術知識產權」的盜竊行為。
團隊成員楚盟和Melo都在攻讀計算機博士學位,某種程度上,他們也是AI技術浪潮的參與者,但他們對生成式AI有更復雜的反思。
Melo是同人繪畫的愛好者,在國內的線上社羣,她親眼目睹畫師的作品被訓練AI模型,從而導致大量畫師退出社羣,不再發聲。「是因為看到這個現象,才有通過技術來保護他們的動力。」
楚盟的觀點也有着自己的背景,「我學過7年繪畫,對於生成式AI技術,可能更多是從社會層面考慮,所以一開始對於AI繪畫模型就有不太好的觀感。我們做新技術,也要思考一項技術的利益基礎是什麼?到底它是隻服務於極少數人的利益,還是讓更多人利益受損,從而陷入更困難的境地?」
在Chris看來,她不希望「Mist」被視為一種「拆除鐵道的馬車伕行為」,雖然在某種粗暴的眼光中,打上這一標籤總是容易的。她覺得這一微小的「反抗」更像一場社會實驗和行為藝術。
「在制度還沒有建立的時期,你不能讓一個拿着石器的人和一個拿着槍炮的人去戰鬥,至少讓大家都裝備上相當的武器。如今的場景下,模型一方便是佔據絕對力量優勢的一方。我們的目的,不關乎單純的利益鬥爭,而是呼籲大家關注這個領域所存在的衝突,去思考一種公正和平衡的解決方法。」Chris説。
03、法律、版權、利益平衡
2023年8月,國內某當紅社交媒體平台推出了一款AI工具模型。但遭到畫師們抵制,認為平台未經授權使用了他們的作品去訓練AI模型。這一AI模型很快引發熱議,在熱搜榜上已累積超過3500萬閲讀量。
11月29日,四位畫師以AI工具侵權為由,將國內某當紅社交媒體平台的AI模型庫告上了法庭。這是國內第一起針對生成式AI訓練數據集侵權問題的案件,目前還正在立案審理中。
畫師「正版青糰子」、「畫畫的雲淡風輕」、「RedMatcha」相繼曬出對比圖,認為無論是配色元素還是畫面風格,平台的AI模型生圖都和自己的作品相似度很高,畫師們覺得「自己的心血被剽竊了」,他們希望這樁訴訟能為日後AI模型侵權案留下案例參考。
在知識產權律師李昀鍇看來,他欣賞幾位畫師敢於維權的態度,但認為結果還有待法庭裁決,「畫師首先需要舉證平台用了哪些數據去訓練,包括訓練過程、具體怎麼訓練。事實上,算法的模型是一個黑箱,要舉證平台用沒用自己的作品,本身可能有些困難。」
「而如果從抄襲的著作權法來看,我國司法實踐裏有非常成熟的裁判體系,因為抄襲的判斷標準就是兩個,一個是接觸,一個是實質性的相似。接觸是原告的作品事先在公共平台發佈,至於相似,在著作權法角度,要落到一個具體的表達模式上,比如筆觸、結構、內容,而風格本身是不獲得保護的,因為風格屬於思想。」
事實上,律師李昀鍇也是國內首例AI生成圖片侵權案的當事人,這個案例最終以勝訴告終。
2023年初,李昀鍇發現,自己用Stable Diffusion生成的圖片被裁掉署名水印,盜用發佈在一篇自媒體賬號文章裏。他以侵害作品署名權、信息網絡傳播權在北京互聯網法院提起訴訟。
他在法庭上覆現了自己的創作過程,包括在模型上輸入數十個提示詞,具體到美術風格、主體、背景、時間、構圖、頭髮、衣服與光線等等,勝訴的核心在於法官判定,李昀鍇在用AI生成圖片上投入了智力和獨特角度,所以應該獲得版權保護。
但這一判例也引發巨大爭議。一個樸素的質疑是,如果AI訓練模型本身存在侵權隱患,那使用AIGC生成的作品為什麼還要受版權保護?這也是世界範圍內第一例AI繪圖具有版權的判例。事實上,更大的爭議與抗爭,仍舊聚焦在AI訓練模型是否侵權的問題。李昀鍇提到,「在國外,以美國版權局舉例,對於AI作品和國內基本上是一個態度,完全由AI生成的作品不具有版權,因為沒有人的智力創造,而有人類高度智力介入的,不否認可以構成作品版權。」、「不過多大程度的人類智力介入可以滿足要求,中美監管機構的認定標準可能存在差異。」Mist開發團隊的律師Chirs提到。
今年2月26日,截止發稿前夜,21世紀經濟報道發佈獨家報道,廣州互聯網法院近日生效了一起生成式AI服務侵犯他人著作權的判決,這也是全球範圍內首例生成式AI服務侵犯他人著作權的生效判決。對於畫師們來説,這似乎是一個積極的法律回應。這一判決將為行業帶來怎樣的影響,還有待時間驗證。新技術發展帶來了利益平衡的變化,法律有滯後性,立法者和司法機關都需要時間來重新衡量。「宏觀上,AI技術如何去融入社會,這是一個需要時間的治理問題。」Chirs補充。
但所有人都已被捲入其中。「AIGC的這一年,可以頂上過去的10年。最近國內發生了這麼多AI繪畫、AI授課的社會事件,無論是哪一個羣體,大家都沒有做好準備。但是隨之而來的問題已經在爆發了,這就是為什麼問題變得格外複雜。」李昀鍇説。
部分受訪者為化名
延伸閱讀:馬斯克預測明年AI會比任何人都要聰明 2029年更是人工智能關鍵
【本文獲「一条」授權刊出,歡迎關注:https://www.facebook.com/yitiaotv】