優(yōu)化營(yíng)商環(huán)境要注重塑造一個(gè)充滿創(chuàng)新活力、公平透明、鼓勵(lì)科技創(chuàng)新的良好環(huán)境。鼓勵(lì)科技創(chuàng)新、優(yōu)化創(chuàng)新生態(tài),是當(dāng)前營(yíng)商環(huán)境建設(shè)和優(yōu)化一個(gè)重要內(nèi)容。人工智能深刻改變著人類生產(chǎn)方式、生活模式和社會(huì)治理模式,人工智能+將成為當(dāng)前乃至今后經(jīng)濟(jì)增長(zhǎng)最重要的一個(gè)增長(zhǎng)點(diǎn)。人工智能的發(fā)展趨勢(shì)關(guān)系到國(guó)家的未來(lái)前途和中華民族偉大復(fù)興事業(yè)。如何應(yīng)對(duì)生成式人工智能發(fā)展中所提出的相關(guān)風(fēng)險(xiǎn),包括侵權(quán)的風(fēng)險(xiǎn),是優(yōu)化營(yíng)商環(huán)境的重要內(nèi)容。

  一、生成式人工智能侵權(quán)法律模式的選擇

  生成式人工智能侵權(quán)問(wèn)題是我們當(dāng)前應(yīng)該思考的一個(gè)重大問(wèn)題。國(guó)外實(shí)踐存在兩種完全不同的規(guī)制模式。一種是歐盟為代表的強(qiáng)監(jiān)管模式。歐盟《人工智能法案》把人工智能涉及的法律風(fēng)險(xiǎn)劃分為四個(gè)等級(jí),針對(duì)不同的風(fēng)險(xiǎn)分別應(yīng)對(duì)并確立治理方案。這個(gè)法案體現(xiàn)了歐盟對(duì)人工智能的強(qiáng)監(jiān)管理念,尤其是注重對(duì)個(gè)人信息隱私保護(hù),設(shè)置了很多義務(wù)性規(guī)則,模型開(kāi)發(fā)者、服務(wù)提供者一旦違反這些義務(wù)就可能構(gòu)成侵權(quán)。另一種是以美國(guó)為代表的輕監(jiān)管重利用模式。美國(guó)《國(guó)家人工智能倡議法案》是一部人工智能促進(jìn)法,相關(guān)侵權(quán)問(wèn)題仍以傳統(tǒng)隱私法、侵權(quán)法解決。近年出臺(tái)的《人工智能行動(dòng)方案》也基本貫徹輕監(jiān)管重發(fā)展的理念,這種模式對(duì)于模型開(kāi)發(fā)者、服務(wù)提供者而言,合規(guī)義務(wù)相對(duì)較輕,侵權(quán)發(fā)生的概率相對(duì)較小。

  我們應(yīng)該采取何種模式?雖然有學(xué)者呼吁要盡快立法,但是我認(rèn)為專門立法為時(shí)尚早。首先,當(dāng)前生成式人工智能的潛在風(fēng)險(xiǎn)總體可控,其主要是對(duì)隱私權(quán)、個(gè)人信息、知識(shí)產(chǎn)權(quán)等造成侵害,而不是對(duì)人的生命財(cái)產(chǎn)安全造成現(xiàn)實(shí)的重大侵害。其次,人工智能技術(shù)發(fā)展日新月異,這些技術(shù)帶來(lái)的新問(wèn)題新挑戰(zhàn),需要時(shí)間去觀察、認(rèn)識(shí)和總結(jié)。如果我們現(xiàn)在還沒(méi)看清楚就匆忙制定相關(guān)規(guī)則,可能會(huì)妨礙它的發(fā)展。從促進(jìn)國(guó)家人工智能發(fā)展重大戰(zhàn)略角度,我認(rèn)為應(yīng)當(dāng)在發(fā)展中予以規(guī)范。首先是發(fā)展,然后在發(fā)展中逐步規(guī)范。

  事實(shí)上,《民法典》《個(gè)人信息保護(hù)法》等相關(guān)法律已針對(duì)人工智能侵權(quán)問(wèn)題設(shè)置了相關(guān)規(guī)則,可以大體上應(yīng)對(duì)當(dāng)前人工智能的侵權(quán)風(fēng)險(xiǎn),關(guān)鍵是怎么解釋好使用好這些規(guī)則,同時(shí)通過(guò)司法解釋配套,以及逐步地積累相關(guān)案例,最后總結(jié)這些實(shí)務(wù)經(jīng)驗(yàn),在這個(gè)基礎(chǔ)上再形成我國(guó)的人工智能立法,這樣更接地氣,更科學(xué)合理,更有利于服務(wù)于國(guó)家人工智能發(fā)展戰(zhàn)略。

  二、人工智能侵權(quán)的歸責(zé)原則

  從既有案例可以看出,人工智能侵權(quán)的確有區(qū)別于傳統(tǒng)侵權(quán)的特點(diǎn):服務(wù)提供者和用戶等侵權(quán)主體的多元;并非實(shí)際侵害他人的財(cái)產(chǎn)和人身,主要是侵害隱私、個(gè)人信息、知識(shí)產(chǎn)權(quán)等權(quán)益;對(duì)侵權(quán)過(guò)錯(cuò)的判斷更加復(fù)雜;因果關(guān)系體現(xiàn)為原因的多元結(jié)合,等等。人工智能侵權(quán)的特殊性,并不表示我們一定要在法律上將其視作一類特殊的侵權(quán)而適用特殊原則。關(guān)于人工智能侵權(quán)的法律規(guī)制,提出幾點(diǎn)建議。

  1.應(yīng)當(dāng)適用過(guò)錯(cuò)責(zé)任。無(wú)過(guò)錯(cuò)責(zé)任會(huì)給人工智能發(fā)展帶來(lái)很大的障礙。一旦發(fā)生侵權(quán),如果不考慮有否過(guò)錯(cuò)就承擔(dān)責(zé)任,那么模型開(kāi)發(fā)設(shè)計(jì)者和服務(wù)提供者承擔(dān)的風(fēng)險(xiǎn)則太大。無(wú)過(guò)錯(cuò)責(zé)任多適用于產(chǎn)品責(zé)任等領(lǐng)域,人工智能提供的不是產(chǎn)品而是服務(wù),這種服務(wù)可能會(huì)有瑕疵,但這個(gè)瑕疵不會(huì)像產(chǎn)品瑕疵那樣會(huì)給受害人人身或財(cái)產(chǎn)造成現(xiàn)實(shí)的重大的侵害。因此,沒(méi)有必要把嚴(yán)苛的產(chǎn)品責(zé)任原則如此迅速地適用到人工智能上來(lái)。我們還是應(yīng)該適用過(guò)錯(cuò)責(zé)任原則,既有利于鼓勵(lì)人工智能的發(fā)展,給模型的開(kāi)發(fā)、設(shè)計(jì)、制造者提供創(chuàng)新空間,同時(shí)也兼顧對(duì)受害人保護(hù),這是最佳的選擇。

  問(wèn)題的關(guān)鍵是這個(gè)過(guò)錯(cuò)怎么判斷,我們的建議還是以違反注意義務(wù)為標(biāo)準(zhǔn)。例如,違反了合規(guī)義務(wù)就可能會(huì)導(dǎo)致侵權(quán),就表明模型的開(kāi)發(fā)、設(shè)計(jì)、制造者等是有過(guò)錯(cuò)的,應(yīng)該承擔(dān)相應(yīng)的責(zé)任。這些合規(guī)義務(wù)在相關(guān)的法規(guī)規(guī)章等規(guī)范性文件中存在著明確的規(guī)定。例如,模型的設(shè)計(jì)者必須將有關(guān)教唆從事違法行為的相關(guān)信息過(guò)濾掉。否則,如果生成出類似的信息,就有可能構(gòu)成侵權(quán)。

  2.人工智能侵權(quán)的過(guò)錯(cuò)判斷應(yīng)遵循場(chǎng)景化原則。人工智能發(fā)展引發(fā)侵權(quán)場(chǎng)景的多樣性,不同場(chǎng)景的風(fēng)險(xiǎn)和防范程度差別非常大,對(duì)其不能采取“一刀切”的方式,而應(yīng)結(jié)合具體場(chǎng)景來(lái)確定風(fēng)險(xiǎn)防控的成本比較和合理義務(wù)。比如,利用人工智能收集他人的各種碎片化信息,并不一定都構(gòu)成侵權(quán)。如果通過(guò)信息處理,旨在為用戶提供個(gè)性化的服務(wù),這對(duì)用戶是有利的,不構(gòu)成侵權(quán)。但如果專門針對(duì)某個(gè)特定的個(gè)人,收集其行蹤信息或生活隱私,甚至將這些信息打包出售,這就有可能構(gòu)成對(duì)他人信息和隱私的侵害。這就是說(shuō),要以具體用途等做場(chǎng)景化的分析判斷。

  3.人工智能侵權(quán)規(guī)則要考慮現(xiàn)有技術(shù)水平。人工智能發(fā)展到今天,仍存在一些現(xiàn)有技術(shù)無(wú)法克服的困難和障礙,比如說(shuō)人工智能會(huì)產(chǎn)生幻覺(jué)或臆想,因此其生成出來(lái)的虛假信息,可能是臆想的產(chǎn)物。但是,在現(xiàn)有的技術(shù)條件下,暫時(shí)無(wú)法克服這些技術(shù)困境。因此,如果模型的制造者和設(shè)計(jì)者已經(jīng)盡到最大努力,但在現(xiàn)有技術(shù)條件下,仍然難免生成出某些虛假信息,則就不能認(rèn)定它是有過(guò)錯(cuò)的。在侵權(quán)責(zé)任法中,產(chǎn)品責(zé)任有“發(fā)展風(fēng)險(xiǎn)抗辯”,醫(yī)療侵權(quán)中有現(xiàn)有醫(yī)療技術(shù)無(wú)法診治的抗辯,這些規(guī)則也可以適用于生成式人工智能的侵權(quán),即人工智能侵權(quán)規(guī)則也應(yīng)引入現(xiàn)有技術(shù)條件的抗辯規(guī)則。

  4.人工智能侵權(quán)過(guò)錯(cuò)認(rèn)定要綜合考慮風(fēng)險(xiǎn)程度和防范成本進(jìn)行效益判斷。有時(shí)候風(fēng)險(xiǎn)確實(shí)已經(jīng)形成,但是要完全地消除或防范風(fēng)險(xiǎn)可能需要付出巨大的成本代價(jià),這時(shí)候一定要求模型的制造者和設(shè)計(jì)者付出極高的成本費(fèi)用去消除風(fēng)險(xiǎn),從經(jīng)濟(jì)上也是極不合理的。例如,模型生成出來(lái)某條虛假信息,相關(guān)當(dāng)事人就要求模型必須優(yōu)化或者將有關(guān)訓(xùn)練數(shù)據(jù)中的虛假信息予以刪除,這可能對(duì)模型來(lái)說(shuō)負(fù)擔(dān)太重,因?yàn)樗诤A繑?shù)據(jù)中識(shí)別某條特定信息,本身是非常困難的。要其予以刪除,在技術(shù)上也很難實(shí)現(xiàn),通常只能對(duì)關(guān)鍵詞進(jìn)行過(guò)濾,但過(guò)濾的關(guān)鍵詞不宜太多,否則也會(huì)增加過(guò)重的成本負(fù)擔(dān)。因此,在認(rèn)定過(guò)錯(cuò)時(shí),就涉及一個(gè)風(fēng)險(xiǎn)防范成本的判斷問(wèn)題。

  5.要注重區(qū)分人工智能服務(wù)提供者的過(guò)錯(cuò)和用戶的過(guò)錯(cuò)。DeepSeek是交互的,其生成的結(jié)果有語(yǔ)料的來(lái)源,同時(shí)也依賴于用戶輸入的指令、信息。如果用戶故意提供虛假信息引誘大模型做出虛假判斷,這種情況下可以認(rèn)為主要是用戶的過(guò)錯(cuò)。

  三、人工智能侵權(quán)的具體問(wèn)題

  1.服務(wù)提供者過(guò)錯(cuò)認(rèn)定應(yīng)類推適用避風(fēng)港規(guī)則。避風(fēng)港規(guī)則規(guī)定在《民法典》第1195條,是為平臺(tái)侵權(quán)設(shè)定的一個(gè)保護(hù)規(guī)則。人工智能侵權(quán)能否援用避風(fēng)港規(guī)則?我個(gè)人認(rèn)為是可以的。人工智能侵權(quán)和網(wǎng)絡(luò)侵權(quán)有很大的相似性,它們都借助網(wǎng)絡(luò),雖然有差異,但是基本應(yīng)用場(chǎng)景還是相同的,尤其是我們要考慮怎么有利于促進(jìn)人工智能的發(fā)展,對(duì)大模型我們還是要鼓勵(lì)它發(fā)展,采用避風(fēng)港是一個(gè)很有效的辦法。避風(fēng)港規(guī)則有利于保護(hù)服務(wù)提供者的利益,避免出現(xiàn)一旦生成虛假信息就使服務(wù)提供者擔(dān)責(zé)的現(xiàn)象。

  2.AI對(duì)已公開(kāi)信息的利用。生成式人工智能對(duì)于已公開(kāi)個(gè)人信息的利用是一個(gè)受爭(zhēng)議的話題。歐盟將已公開(kāi)的個(gè)人信息視同一般信息,對(duì)它們給予同等保護(hù)。美國(guó)則不再保護(hù)已公開(kāi)的個(gè)人信息。對(duì)于已公開(kāi)的個(gè)人信息,我認(rèn)為應(yīng)當(dāng)回歸《民法典》和《個(gè)人信息保護(hù)法》的規(guī)定?!睹穹ǖ洹芬环矫婷鞔_對(duì)其予以保護(hù),另一方面也將其跟一般的個(gè)人信息區(qū)分開(kāi)?!睹穹ǖ洹返?036條規(guī)定,如果處理已公開(kāi)的個(gè)人信息會(huì)給個(gè)人造成重大利益侵害,這時(shí)候該個(gè)人享有拒絕權(quán)。這個(gè)“重大利益侵害”就是規(guī)范已公開(kāi)個(gè)人信息收集處理的重要標(biāo)準(zhǔn)。例如,將從網(wǎng)上已公開(kāi)的各類信息收集處理,其中可能涉及到某個(gè)人的隱私,如果將該信息打包出售,就可能造成對(duì)個(gè)人權(quán)益的重大侵害。

  3.敏感個(gè)人信息問(wèn)題。針對(duì)人工智能情形下的敏感個(gè)人信息。不能簡(jiǎn)單照搬和適用單獨(dú)同意,要對(duì)《民法典》《個(gè)人信息保護(hù)法》的相關(guān)規(guī)定,結(jié)合具體場(chǎng)景作出解釋。要區(qū)分應(yīng)用場(chǎng)景的具體情形,一是看它是否公開(kāi),二是看它是訓(xùn)練階段還是商業(yè)應(yīng)用階段,三是區(qū)分處理敏感個(gè)人信息是否針對(duì)特定的個(gè)人。即便在人工智能訓(xùn)練階段,開(kāi)發(fā)者處理敏感個(gè)人信息的動(dòng)機(jī)也存在差異。如果針對(duì)特定人搜集其敏感個(gè)人信息,是為了刺探特定人的隱私,這就有可能構(gòu)成侵權(quán)。但如果是泛泛的搜集他人已公開(kāi)的敏感個(gè)人信息作為語(yǔ)料進(jìn)行訓(xùn)練或優(yōu)化模型,這不一定構(gòu)成侵權(quán)。

  4.已公開(kāi)的作品數(shù)據(jù)問(wèn)題。關(guān)于已公開(kāi)的作品數(shù)據(jù),如對(duì)作品的數(shù)據(jù)處理,在人工智能環(huán)境下是不是一定都要取得作者的同意?這是一個(gè)受爭(zhēng)議的話題。從鼓勵(lì)人工智能發(fā)展來(lái)看,如果對(duì)已公開(kāi)的作品數(shù)據(jù)都要求取得作者同意,那么人工智能的語(yǔ)料就會(huì)大大受限。在這種情形下,談判成本極高,可以說(shuō)市場(chǎng)已經(jīng)失靈。能不能就把它歸入《著作權(quán)法》第22條規(guī)定的合理使用中去?我個(gè)人是贊成這個(gè)看法的,這就是合理使用的范圍,對(duì)個(gè)人著作權(quán)要做合理限制。

  5.深度偽造問(wèn)題。深度偽造目前發(fā)展迅猛,深度偽造技術(shù)如果不得到有效地規(guī)范,會(huì)帶來(lái)很大的風(fēng)險(xiǎn)。這個(gè)問(wèn)題的解決還是要回到《民法典》第1019條的規(guī)定,禁止利用深度偽造技術(shù)侵害他人權(quán)益。侵害權(quán)益是一個(gè)基本標(biāo)準(zhǔn),只要造成權(quán)益侵害就是有過(guò)錯(cuò)的。為了防止侵害權(quán)益,必須要有一定的義務(wù)如合規(guī)義務(wù)等。

  總之,人工智能發(fā)展伴生著風(fēng)險(xiǎn)與挑戰(zhàn)。為服務(wù)于促進(jìn)人工智能國(guó)家戰(zhàn)略發(fā)展的重大戰(zhàn)略,我們應(yīng)堅(jiān)持“發(fā)展中規(guī)范,規(guī)范中發(fā)展”的監(jiān)管理念。面對(duì)新領(lǐng)域、新技術(shù)和新挑戰(zhàn),我們的執(zhí)法和司法更需秉持審慎、包容、開(kāi)放理念,保障人工智能在安全、可靠、可控前提下有序發(fā)展,營(yíng)造鼓勵(lì)創(chuàng)新的良好營(yíng)商環(huán)境。

更多精彩,請(qǐng)關(guān)注“官方微信”

11.jpg

 關(guān)于國(guó)脈 

國(guó)脈,是營(yíng)商環(huán)境、數(shù)字政府、數(shù)字經(jīng)濟(jì)、低空經(jīng)濟(jì)、民營(yíng)經(jīng)濟(jì)、產(chǎn)業(yè)發(fā)展、數(shù)字企業(yè)等領(lǐng)域的專業(yè)提供商。創(chuàng)新提出"軟件+咨詢+數(shù)據(jù)+平臺(tái)+創(chuàng)新業(yè)務(wù)"五位一體服務(wù)模型,擁有營(yíng)商環(huán)境督查與考核評(píng)估系統(tǒng)、政策智能服務(wù)系統(tǒng)、數(shù)據(jù)資源目錄系統(tǒng)、數(shù)據(jù)基因、數(shù)據(jù)母體、數(shù)據(jù)智能評(píng)估系統(tǒng)等幾十項(xiàng)軟件產(chǎn)品,長(zhǎng)期為中國(guó)城市、政府和企業(yè)提供專業(yè)咨詢規(guī)劃和數(shù)據(jù)服務(wù),廣泛服務(wù)于發(fā)改委、營(yíng)商環(huán)境局、考核辦、數(shù)據(jù)局、行政審批局等政府客戶、中央企業(yè)和高等院校。

責(zé)任編輯:wuwenfei