近年來,隨著人工智能算法不斷迭代升級,尤其是機(jī)器學(xué)習(xí)賦予人工智能強(qiáng)大的學(xué)習(xí)能力,使其不再局限于只能依據(jù)事先指定的模板或者規(guī)則,進(jìn)行簡單的內(nèi)容輸出和制作,而是能夠根據(jù)用戶提出的指令即可生成靈活且真實(shí)的內(nèi)容,甚至能夠?qū)崿F(xiàn)高質(zhì)量的內(nèi)容創(chuàng)作,這類技術(shù)也被稱為人工智能生成內(nèi)容(AIGC)。
(資料圖片僅供參考)
近期爆火的ChatGPT就是AIGC的典型代表,該技術(shù)是基于語言模型GPT-3.5的聊天機(jī)器人,ChatGPT模型使用一種稱為人類反饋強(qiáng)化學(xué)習(xí)(RLHF)的機(jī)器學(xué)習(xí)進(jìn)行訓(xùn)練,可以模擬對話、回答后續(xù)問題、承認(rèn)錯誤、挑戰(zhàn)不正確的前提并拒絕不適當(dāng)?shù)恼埱蟆km然,此前不乏能夠與人進(jìn)行互動對話的聊天機(jī)器人,但并沒有像ChatGPT一樣受到廣泛關(guān)注,是因?yàn)榕c其他聊天機(jī)器人相比,ChatGPT具有更強(qiáng)大的功能,借助其核心技術(shù)之一“Transformer神經(jīng)網(wǎng)絡(luò)架構(gòu)”,利用從大型文本語料庫中所學(xué)到的內(nèi)容,能夠生成具有更豐富細(xì)節(jié)和更長篇幅的內(nèi)容,可以完成包括寫郵件、寫代碼、寫新聞報(bào)道以及寫論文等多種任務(wù),且任何人都可以輕松地使用,具有開放性、跨領(lǐng)域及通用性的特征,其本身可以構(gòu)成網(wǎng)絡(luò)信息技術(shù)領(lǐng)域的終端,成為支撐人工智能技術(shù)和產(chǎn)業(yè)發(fā)展的一種關(guān)鍵基礎(chǔ)設(shè)施。由此,ChatGPT也引發(fā)了全球各界的廣泛關(guān)注甚或擔(dān)憂。
潛在風(fēng)險(xiǎn)
ChatGPT強(qiáng)大的功能以及較低的使用門檻,打破了人們對人工智能的固有印象,且讓人們看到了AIGC技術(shù)在多領(lǐng)域應(yīng)用的巨大潛力。然而,隨著ChatGPT爆火掀起新一輪AIGC熱潮,也讓人們意識到其中潛在的諸如技術(shù)壟斷、資本擴(kuò)張、數(shù)據(jù)濫用、算法歧視、隱私侵權(quán)等法律風(fēng)險(xiǎn),可能對市場競爭、企業(yè)創(chuàng)新、消費(fèi)者福利甚或國家安全產(chǎn)生負(fù)面影響。為預(yù)防此類技術(shù)廣泛適用帶來的法律風(fēng)險(xiǎn),需結(jié)合ChatGPT的技術(shù)特性以及其在不同領(lǐng)域應(yīng)用的情況,分析存在的法律問題并做好相應(yīng)對策。
其一,ChatGPT可能存在“技術(shù)+資本”的壟斷風(fēng)險(xiǎn)。
雖然,ChatGPT是由初創(chuàng)公司OpenAI開發(fā),并非出自微軟、谷歌等科技巨頭,但是,OpenAI創(chuàng)始人表示,ChatGPT的開放成本和運(yùn)行成本相當(dāng)高,致使其開發(fā)和運(yùn)維成本非一般初創(chuàng)型企業(yè)可以承擔(dān)。相關(guān)資料顯示,GPT-3訓(xùn)練一次的費(fèi)用是460萬美元,總訓(xùn)練成本達(dá)1200萬美元。高昂的成本使得初創(chuàng)公司難以實(shí)現(xiàn)獨(dú)立的開發(fā)和運(yùn)營,必須與科技巨頭合作,才能獲得運(yùn)營所需的極其昂貴的數(shù)據(jù)資源和云計(jì)算能力。
在此情況下,OpenAI選擇與微軟達(dá)成合作,得到了微軟10億美元的投資,并專門為微軟新必應(yīng)(New Bing)搜索引擎專門定制了下一代大型語言模型。這在很大程度上預(yù)示著該領(lǐng)域市場在未來存在著被微軟、谷歌等科技巨頭壟斷數(shù)據(jù)、算法及技術(shù)要素資源的風(fēng)險(xiǎn),因?yàn)槌鮿?chuàng)企業(yè)在該領(lǐng)域難以獨(dú)立生存,而科技巨頭可憑借其擁有的數(shù)據(jù)、技術(shù)、資本、用戶等優(yōu)勢,通過收購、簽訂協(xié)議等方式獲得初創(chuàng)企業(yè)的技術(shù),將其在原有市場的市場力量迅速傳導(dǎo)至新的市場,還可能通過實(shí)施技術(shù)封鎖、數(shù)據(jù)屏蔽等排除限制競爭的行為以維持壟斷地位。
其二,ChatGPT可能存在算法偏見。
目前,ChatGPT仍存在一定的技術(shù)缺陷,其依賴于其訓(xùn)練數(shù)據(jù)中的統(tǒng)計(jì)規(guī)律,無法在網(wǎng)絡(luò)上抓取實(shí)時信息,也無法識別核實(shí)數(shù)據(jù)來源,易導(dǎo)致算法歧視、濫用現(xiàn)象的出現(xiàn),因?yàn)橛?xùn)練數(shù)據(jù)受限于數(shù)據(jù)的種類和內(nèi)容的不足,使數(shù)據(jù)集可能存在某種價值偏見,則ChatGPT算法的輸出結(jié)果可能會產(chǎn)生有害的指引或者有偏見的內(nèi)容。這種算法偏見產(chǎn)生的負(fù)面影響會隨著技術(shù)的廣泛應(yīng)用不斷凸顯。
譬如,ChatGPT給予的答復(fù)中存在性別歧視和種族歧視的問題,可能會誤導(dǎo)使用者將具有歧視性的回答視為“正確答案”而作出錯誤的決斷,從而可能會對社會認(rèn)知和倫理產(chǎn)生負(fù)面影響,甚至涉及國家安全、文化安全的風(fēng)險(xiǎn)。特別是在處理算法包容性的問題上,由于中西文化的根源及演進(jìn)路徑不同,還會涉及對傳統(tǒng)文化和現(xiàn)實(shí)觀照之間的解讀、評價及傳播的問題,這些都可能會在ChatGPT的大規(guī)模語言模型訓(xùn)練中被忽視或者選擇性忽略掉,亦有可能被特意地放大。為此,需要通過法律規(guī)則和科技倫理規(guī)則的融合,以穩(wěn)妥地處理技術(shù)應(yīng)用與技術(shù)規(guī)制之間的關(guān)系。
其三,ChatGPT可能引發(fā)著作權(quán)糾紛。
ChatGPT作為人工智能技術(shù)驅(qū)動的自然語言處理工具,它能夠通過學(xué)習(xí)和理解人類的語言來進(jìn)行對話或?qū)懽鳎⒉皇呛唵蔚貜哪硞€模板中選擇內(nèi)容,可以根據(jù)使用者提出的問題或者要求,進(jìn)行內(nèi)容創(chuàng)作,甚至已有研究者和學(xué)生借助ChatGPT撰寫論文,由此衍生出了關(guān)于著作權(quán)的兩方面問題亟待解決。一是ChatGPT撰寫論文的著作權(quán)歸屬問題,二是研究者使用ChatGPT撰寫論文是否構(gòu)成學(xué)術(shù)不端的問題。這些問題給學(xué)術(shù)圈帶來了巨大的沖擊,也引發(fā)了學(xué)者們對如何規(guī)范使用此類技術(shù)的探討。這方面已經(jīng)在有的國家和地區(qū)的現(xiàn)實(shí)反饋中予以體現(xiàn),譬如,全球?qū)W術(shù)頂刊《自然》(Nature)雜志一周之內(nèi)兩次發(fā)布有關(guān)ChatGPT的分析文章,探討諸如ChatGPT等大型語言模型(LLMs)給學(xué)術(shù)圈帶來的潛在混亂,生成內(nèi)容存在的潛在侵權(quán),以及如何規(guī)范使用等問題。
其四,ChatGPT可能存在數(shù)據(jù)安全隱患。
ChatGPT的運(yùn)行需要大量數(shù)據(jù)的支持,其所采用的數(shù)據(jù)量多達(dá)上萬億,主要使用的是公共爬蟲數(shù)據(jù)集和有著超過萬億單詞的人類語言數(shù)據(jù)集。根據(jù)ChatGPT和OpenAI官網(wǎng)的《隱私政策》可以看到,用戶在使用ChatGPT時,會被采集有關(guān)用戶訪問、使用或互動的信息,相關(guān)負(fù)責(zé)人也表示,ChatGPT會使用每個客戶的一小部分?jǐn)?shù)據(jù)樣本來提高模型性能,用戶若不希望數(shù)據(jù)用于提高性能,需要通過郵件向OpenAI發(fā)送申請。這意味著,包含用戶隱私以及用戶對話的數(shù)據(jù)可能會被OpenAI采集并存儲在其數(shù)據(jù)中心,隨著ChatGPT用戶數(shù)量暴增,其采集和存儲的用戶數(shù)據(jù)量也將非常龐大。
雖然,ChatGPT表示,存儲訓(xùn)練和運(yùn)行模型所需的數(shù)據(jù)會嚴(yán)格遵守隱私和安全政策,但在未來可能出現(xiàn)的網(wǎng)絡(luò)攻擊和數(shù)據(jù)爬取等現(xiàn)象下,仍存在不可忽視的數(shù)據(jù)安全隱患。特別是對涉及國家核心數(shù)據(jù)、地方和行業(yè)重要數(shù)據(jù)以及個人隱私數(shù)據(jù)的抓取、處理以及合成使用等過程中的安全保護(hù)與流動共享的平衡處置,這不僅涉及數(shù)據(jù)安全,還涉及國家安全、行業(yè)安全及個人安全等。
正視背后問題,未雨綢繆
目前,雖然ChatGPT暫未向中國開放,但如騰訊、百度等眾多國內(nèi)科技巨頭紛紛表示將研發(fā)類ChatGPT的產(chǎn)品,因此,當(dāng)前ChatGPT潛在的法律風(fēng)險(xiǎn)在未來也同樣可能會在我國出現(xiàn),因此,必須正視ChatGPT產(chǎn)品爆火背后存在的問題,否則將可能引發(fā)對AIGC的信任危機(jī),不利于我國AIGC相關(guān)產(chǎn)業(yè)的規(guī)范持續(xù)健康發(fā)展。
首先,需要完善AIGC領(lǐng)域的反壟斷法監(jiān)管。
一方面,需進(jìn)一步優(yōu)化和明確AIGC領(lǐng)域的反壟斷法相關(guān)監(jiān)管規(guī)則,提高反壟斷法律法規(guī)在相關(guān)應(yīng)用場景的適用性。為此,仍然需要堅(jiān)持且完善以替代分析法為主的相關(guān)市場界定方法,充分考量AIGC類產(chǎn)品的功能與技術(shù)特性,并在認(rèn)定其市場支配地位的過程中,提高與支持AIGC相關(guān)的技術(shù)因素、硬件條件、場景因素,尤其是算法、數(shù)據(jù)、算力等要素優(yōu)勢的考量比重。在判定行為競爭效果時,需權(quán)衡行為的積極和消極影響,兼顧激勵創(chuàng)新與保護(hù)競爭,在評估行為的負(fù)面影響的同時,也需考量行為對創(chuàng)新、經(jīng)濟(jì)效率以及消費(fèi)者體驗(yàn)等積極影響。
另一方面,由于傳統(tǒng)反壟斷法的事后規(guī)制存在滯后性和局限性,難以有效應(yīng)對動態(tài)變化和高技術(shù)性的AIGC領(lǐng)域的市場壟斷問題,因此,有必要分類分級、科學(xué)審慎地引入反壟斷事前監(jiān)管方式,通過設(shè)置技術(shù)、資本、用戶等條件,抓住具體要素治理的綱目,明確AIGC領(lǐng)域需承擔(dān)特殊義務(wù)的平臺企業(yè),設(shè)置行為“紅黃綠燈”,聚焦用戶、數(shù)據(jù)、算力、資本等可計(jì)量指標(biāo),從事前層面規(guī)范和約束相關(guān)平臺企業(yè)的行為,預(yù)防可能出現(xiàn)的扼殺式經(jīng)營者集中、算法(壟斷)協(xié)議以及濫用市場支配地位等反競爭風(fēng)險(xiǎn)。
其次,要健全預(yù)防算法歧視的法律法規(guī)體系及規(guī)制機(jī)制。
一是要從源頭上規(guī)范相關(guān)技術(shù)所使用訓(xùn)練數(shù)據(jù)樣本的非歧視性,要求相關(guān)企業(yè)及時檢查和更新數(shù)據(jù)庫,并移除可能存在歧視性的特定數(shù)據(jù)內(nèi)容。二是要建立AIGC技術(shù)的算法問責(zé)制度,當(dāng)AIGC生成的歧視性內(nèi)容對社會以及相關(guān)主體的權(quán)益產(chǎn)生實(shí)質(zhì)損害時,有必要完善相應(yīng)的歸責(zé)體系,明確導(dǎo)致算法歧視的責(zé)任主體以及各主體應(yīng)承擔(dān)的法律責(zé)任。三是要完善算法解釋與算法備案制度,提升人工智能算法透明度,并根據(jù)AIGC的應(yīng)用場景對算法進(jìn)行分級,加強(qiáng)對高風(fēng)險(xiǎn)算法和場景的審查,在可行的范圍內(nèi)使用可理解和可解釋的方法,以便用戶、監(jiān)督者和公眾酌情了解AIGC如何以及為何產(chǎn)生其輸出內(nèi)容。
再次,要規(guī)范AIGC技術(shù)在進(jìn)行內(nèi)容創(chuàng)作時的行為。
一方面,要完善AIGC著作權(quán)歸屬相關(guān)規(guī)則。根據(jù)我國著作權(quán)法,人工智能暫不被視為著作權(quán)人,但可根據(jù)不同主體對生成內(nèi)容價值的作用大小判定AIGC作品的著作權(quán)歸屬。這一點(diǎn)在司法實(shí)踐中已有體現(xiàn),譬如,在騰訊訴網(wǎng)貸之家案中,法院經(jīng)過審理最終裁定,爭訴的作品《午評:滬指小幅上漲0.11%報(bào)2671.93點(diǎn)通信運(yùn)營、石油開采等板塊領(lǐng)漲》確系A(chǔ)I所創(chuàng)作,涉及的內(nèi)容判定為具有獨(dú)創(chuàng)性,AI生成的作品具有著作權(quán)。雖然,AI尚不具有法律上的著作權(quán)人資格,但是,AI是由人設(shè)計(jì)創(chuàng)造,即其擁有者(AI copyright owner)可以享有其作品的相關(guān)著作權(quán)利,最后法院認(rèn)定騰訊公司可享有相關(guān)信息網(wǎng)絡(luò)傳播權(quán),這是國內(nèi)首例有關(guān)AI作品著作權(quán)保護(hù)的案件。
進(jìn)言之,ChatGPT 生成內(nèi)容的價值源于其設(shè)計(jì)者算法的巧妙設(shè)計(jì),則設(shè)計(jì)者擁有ChatGPT 生成著作的權(quán)利,工具使用者不得濫用或者非法使用ChatGPT 生成內(nèi)容。若ChatGPT的最終生成內(nèi)容是經(jīng)由工具使用者反復(fù)調(diào)適,輸入變量等操作,使生成內(nèi)容的價值遠(yuǎn)大于其在一般運(yùn)行狀態(tài)下生成的內(nèi)容,則工具的使用者可以享有著作權(quán)。
另一方面,為避免學(xué)術(shù)不端問題的出現(xiàn),需要制定AIGC技術(shù)在學(xué)術(shù)寫作的使用規(guī)范,明確可使用范圍和限度,并要求在文中規(guī)范標(biāo)注ChatGPT技術(shù)生成的內(nèi)容;在技術(shù)層面,需要基于ChatGPT技術(shù)生產(chǎn)內(nèi)容的邏輯與特征,加強(qiáng)對ChatGPT生成內(nèi)容的鑒別和識別。
最后,要從制度和技術(shù)層面加強(qiáng)AIGC領(lǐng)域的數(shù)據(jù)安全保護(hù)。
在制度層面,需要結(jié)合AIGC底層技術(shù)所需數(shù)據(jù)的特性和作用,建立健全數(shù)據(jù)分類分級保護(hù)制度,譬如可根據(jù)數(shù)據(jù)主體、數(shù)據(jù)處理程度、數(shù)據(jù)權(quán)利屬性等方面對訓(xùn)練數(shù)據(jù)集中進(jìn)行分類管理,根據(jù)數(shù)據(jù)對于數(shù)據(jù)權(quán)利主體的價值,以及數(shù)據(jù)一旦遭到篡改、破壞等對數(shù)據(jù)主體的危害程度進(jìn)行分級。
在數(shù)據(jù)分類分級的基礎(chǔ)上,建立與數(shù)據(jù)類型和安全級別相配套的數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)與共享機(jī)制,同時,AIGC還涉及數(shù)據(jù)跨境流通問題,應(yīng)當(dāng)在考慮國際通行標(biāo)準(zhǔn)和做法的基礎(chǔ)上,制定合理的跨境數(shù)據(jù)安全執(zhí)法規(guī)則,加強(qiáng)與其他國家和地區(qū)規(guī)則的銜接,促進(jìn)數(shù)據(jù)安全跨境執(zhí)法合作。在技術(shù)層面,需要加快推動“隱私計(jì)算”技術(shù)在AIGC領(lǐng)域的應(yīng)用,這類技術(shù)能夠讓多個數(shù)據(jù)擁有者在不暴露數(shù)據(jù)本身的前提下,通過共享SDK或者開放SDK權(quán)限的方式,在進(jìn)行數(shù)據(jù)的共享、互通、計(jì)算、建模,在確保AIGC能夠正常提供服務(wù)的同時,保證數(shù)據(jù)不泄露給其他參與方。
以ChatGPT為代表的AIGC領(lǐng)域具有巨大的發(fā)展前景,能夠帶來更多數(shù)字化創(chuàng)新的發(fā)展機(jī)遇,也已成為未來全球競爭與創(chuàng)新的重點(diǎn)方向,但我們也必須正視ChatGPT爆火背后潛在的法律風(fēng)險(xiǎn),及時更新、科學(xué)完善AIGC領(lǐng)域的相關(guān)法律法規(guī),建立健全相關(guān)行為規(guī)范和倫理指南,用系統(tǒng)觀念和法治思維及方法來推動AIGC在我國規(guī)范健康持續(xù)發(fā)展。
(陳兵系南開大學(xué)法學(xué)院副院長、教授、博導(dǎo),南開大學(xué)競爭法研究中心主任,中國新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員;林思宇系南開大學(xué)法學(xué)院博士生)
(文章來源:第一財(cái)經(jīng))