題:熱度“狂飆”的ChatGPT面臨哪些潛在法律風(fēng)險?
(資料圖)
作者 肖颯 北京大成律師事務(wù)所合伙人
2023開年之初,全球科技巨頭微軟的巨額投資讓ChatGPT成為科技領(lǐng)域的“頂流”,并成功出圈。我們作為法律工作者,不禁要評估ChatGPT自身在實(shí)際運(yùn)用中可能會帶來的法律安全風(fēng)險。
事實(shí)上,ChatGPT似乎遠(yuǎn)沒有部分消息宣傳的那樣“神”——其僅僅是Transformer和GPT等自然語言處理技術(shù)的集成,本質(zhì)上依然是一個基于神經(jīng)網(wǎng)絡(luò)的語言模型,而非一項“跨時代的AI進(jìn)步”。
第一,人工智能在中國整體監(jiān)管仍有待完善。
和許多新興技術(shù)一樣,ChatGPT所代表的自然語言處理技術(shù)也面臨著“科林格里奇窘境”(Collingridge dilemma),即信息困境與控制困境。
所謂信息困境,即一項新興技術(shù)所帶來的社會后果不能在該技術(shù)的早期被預(yù)料到;所謂控制困境,即當(dāng)一項新興技術(shù)所帶來的不利社會后果被發(fā)現(xiàn)時,技術(shù)往往已成為整個社會和經(jīng)濟(jì)結(jié)構(gòu)的一部分,致使不利的社會后果無法被有效控制。
在人工智能領(lǐng)域,尤其是自然語言處理技術(shù)領(lǐng)域的快速發(fā)展階段,該技術(shù)很可能會陷入“科林格里奇窘境”,而與此相對應(yīng)的法律監(jiān)管似乎并未“跟得上步伐”。
目前,中國尚無國家層面的人工智能產(chǎn)業(yè)立法,但深圳、上海等城市已有相關(guān)立法嘗試。相信未來各地均會出臺類似的人工智能產(chǎn)業(yè)立法。
在人工智能的倫理規(guī)制方面,國家新一代人工智能治理專業(yè)委員會亦在2021年發(fā)布了《新一代人工智能倫理規(guī)范》,提出將倫理道德融入人工智能研發(fā)和應(yīng)用的全生命周期。
第二,ChatGPT帶來的虛假信息存在法律風(fēng)險問題。
ChatGPT等AI聊天基礎(chǔ)存在的現(xiàn)實(shí)合規(guī)問題也急需重視。ChatGPT基于AI背后已有的自然語言文本信息(語料庫)進(jìn)行概率統(tǒng)計,返回的答案也是“統(tǒng)計結(jié)果”,這就導(dǎo)致ChatGPT在許多問題上會“一本正經(jīng)的胡說八道”,這種看似真實(shí)、實(shí)則離譜的虛假信息具有一定誤導(dǎo)性。
倘若ChatGPT應(yīng)用到搜索引擎、客戶投訴系統(tǒng)等領(lǐng)域,其回復(fù)的虛假信息可能造成嚴(yán)重的法律風(fēng)險。
實(shí)際上,這樣的法律風(fēng)險已出現(xiàn),2022年11月,幾乎與ChatGPT同一時間上線的Meta服務(wù)科研領(lǐng)域的語言模型Galactica,就因為真假答案混雜的問題,測試僅3天就被用戶投訴下線。
在技術(shù)原理無法短期突破前提下,ChatGPT及類似語言模型要應(yīng)用到搜索引擎、客戶投訴系統(tǒng)等領(lǐng)域,就必須對其進(jìn)行合規(guī)性改造,以最大程度降低相應(yīng)的合規(guī)風(fēng)險。
第三,ChatGPT會帶來知識產(chǎn)權(quán)的合規(guī)問題。
聊天AI,尤其是像ChatGPT這樣的大型語言模型知識產(chǎn)權(quán)問題應(yīng)引起合規(guī)人員注意。
第一個合規(guī)難題是“文本數(shù)據(jù)挖掘”是否需要相應(yīng)知識產(chǎn)權(quán)授權(quán)問題。正如前文所指,ChatGPT依靠巨量自然語言本文(或言語料庫)運(yùn)轉(zhuǎn),其需要將語料庫中內(nèi)容復(fù)制到自有數(shù)據(jù)庫中,相應(yīng)行為通常在自然語言處理領(lǐng)域被稱為“文本數(shù)據(jù)挖掘”。當(dāng)相應(yīng)文本數(shù)據(jù)可能構(gòu)成作品前提下,文本數(shù)據(jù)挖掘行為是否侵犯復(fù)制權(quán),當(dāng)前仍存在一定爭議。
目前,中國著作權(quán)法并未將AI中的“文本數(shù)據(jù)挖掘”納入到合理適用范圍內(nèi),文本數(shù)據(jù)挖掘在中國依然需要相應(yīng)知識產(chǎn)權(quán)授權(quán)。
第二個合規(guī)難題是ChatGPT產(chǎn)生的答復(fù)是否具有獨(dú)創(chuàng)性?我們認(rèn)為,無論某一答復(fù)是AI完成還是人類完成,其都應(yīng)當(dāng)根據(jù)現(xiàn)有獨(dú)創(chuàng)性標(biāo)準(zhǔn)進(jìn)行判定。
此時,其實(shí)還面臨另一個爭議,如果AI生成答復(fù)具有獨(dú)創(chuàng)性,那著作權(quán)人可以是AI嗎?顯然,包括中國在內(nèi)的大部分國家知識產(chǎn)權(quán)法律下,作品的作者僅有可能是自然人,AI無法成為作品的作者。
第三個合規(guī)難題是ChatGPT倘若在自己的回復(fù)中拼接了第三方作品,其知識產(chǎn)權(quán)問題應(yīng)當(dāng)如何處理?
我們認(rèn)為,如果ChatGPT的答復(fù)中拼接了語料庫中擁有著作權(quán)的作品(雖然依照其工作原理,這種情況概率較小),按照中國現(xiàn)行著作權(quán)法,除非構(gòu)成合理使用,否則必須獲得著作權(quán)人的授權(quán)后才可以復(fù)制。(中新經(jīng)緯APP)
本文由中新經(jīng)緯研究院選編,因選編產(chǎn)生的作品中新經(jīng)緯版權(quán)所有,未經(jīng)書面授權(quán),任何單位及個人不得轉(zhuǎn)載、摘編或以其它方式使用。選編內(nèi)容涉及的觀點(diǎn)僅代表原作者,不代表中新經(jīng)緯觀點(diǎn)。
責(zé)任編輯:李惠聰