優(yōu)化營商環(huán)境要注重塑造一個充滿創(chuàng)新活力、公平透明、鼓勵科技創(chuàng)新的良好環(huán)境。鼓勵科技創(chuàng)新、優(yōu)化創(chuàng)新生態(tài),是當(dāng)前營商環(huán)境建設(shè)和優(yōu)化一個重要內(nèi)容。人工智能深刻改變著人類生產(chǎn)方式、生活模式和社會治理模式,人工智能+將成為當(dāng)前乃至今后經(jīng)濟增長最重要的一個增長點。人工智能的發(fā)展趨勢關(guān)系到國家的未來前途和中華民族偉大復(fù)興事業(yè)。如何應(yīng)對生成式人工智能發(fā)展中所提出的相關(guān)風(fēng)險,包括侵權(quán)的風(fēng)險,是優(yōu)化營商環(huán)境的重要內(nèi)容。

  一、生成式人工智能侵權(quán)法律模式的選擇

  生成式人工智能侵權(quán)問題是我們當(dāng)前應(yīng)該思考的一個重大問題。國外實踐存在兩種完全不同的規(guī)制模式。一種是歐盟為代表的強監(jiān)管模式。歐盟《人工智能法案》把人工智能涉及的法律風(fēng)險劃分為四個等級,針對不同的風(fēng)險分別應(yīng)對并確立治理方案。這個法案體現(xiàn)了歐盟對人工智能的強監(jiān)管理念,尤其是注重對個人信息隱私保護(hù),設(shè)置了很多義務(wù)性規(guī)則,模型開發(fā)者、服務(wù)提供者一旦違反這些義務(wù)就可能構(gòu)成侵權(quán)。另一種是以美國為代表的輕監(jiān)管重利用模式。美國《國家人工智能倡議法案》是一部人工智能促進(jìn)法,相關(guān)侵權(quán)問題仍以傳統(tǒng)隱私法、侵權(quán)法解決。近年出臺的《人工智能行動方案》也基本貫徹輕監(jiān)管重發(fā)展的理念,這種模式對于模型開發(fā)者、服務(wù)提供者而言,合規(guī)義務(wù)相對較輕,侵權(quán)發(fā)生的概率相對較小。

  我們應(yīng)該采取何種模式?雖然有學(xué)者呼吁要盡快立法,但是我認(rèn)為專門立法為時尚早。首先,當(dāng)前生成式人工智能的潛在風(fēng)險總體可控,其主要是對隱私權(quán)、個人信息、知識產(chǎn)權(quán)等造成侵害,而不是對人的生命財產(chǎn)安全造成現(xiàn)實的重大侵害。其次,人工智能技術(shù)發(fā)展日新月異,這些技術(shù)帶來的新問題新挑戰(zhàn),需要時間去觀察、認(rèn)識和總結(jié)。如果我們現(xiàn)在還沒看清楚就匆忙制定相關(guān)規(guī)則,可能會妨礙它的發(fā)展。從促進(jìn)國家人工智能發(fā)展重大戰(zhàn)略角度,我認(rèn)為應(yīng)當(dāng)在發(fā)展中予以規(guī)范。首先是發(fā)展,然后在發(fā)展中逐步規(guī)范。

  事實上,《民法典》《個人信息保護(hù)法》等相關(guān)法律已針對人工智能侵權(quán)問題設(shè)置了相關(guān)規(guī)則,可以大體上應(yīng)對當(dāng)前人工智能的侵權(quán)風(fēng)險,關(guān)鍵是怎么解釋好使用好這些規(guī)則,同時通過司法解釋配套,以及逐步地積累相關(guān)案例,最后總結(jié)這些實務(wù)經(jīng)驗,在這個基礎(chǔ)上再形成我國的人工智能立法,這樣更接地氣,更科學(xué)合理,更有利于服務(wù)于國家人工智能發(fā)展戰(zhàn)略。

  二、人工智能侵權(quán)的歸責(zé)原則

  從既有案例可以看出,人工智能侵權(quán)的確有區(qū)別于傳統(tǒng)侵權(quán)的特點:服務(wù)提供者和用戶等侵權(quán)主體的多元;并非實際侵害他人的財產(chǎn)和人身,主要是侵害隱私、個人信息、知識產(chǎn)權(quán)等權(quán)益;對侵權(quán)過錯的判斷更加復(fù)雜;因果關(guān)系體現(xiàn)為原因的多元結(jié)合,等等。人工智能侵權(quán)的特殊性,并不表示我們一定要在法律上將其視作一類特殊的侵權(quán)而適用特殊原則。關(guān)于人工智能侵權(quán)的法律規(guī)制,提出幾點建議。

  1.應(yīng)當(dāng)適用過錯責(zé)任。無過錯責(zé)任會給人工智能發(fā)展帶來很大的障礙。一旦發(fā)生侵權(quán),如果不考慮有否過錯就承擔(dān)責(zé)任,那么模型開發(fā)設(shè)計者和服務(wù)提供者承擔(dān)的風(fēng)險則太大。無過錯責(zé)任多適用于產(chǎn)品責(zé)任等領(lǐng)域,人工智能提供的不是產(chǎn)品而是服務(wù),這種服務(wù)可能會有瑕疵,但這個瑕疵不會像產(chǎn)品瑕疵那樣會給受害人人身或財產(chǎn)造成現(xiàn)實的重大的侵害。因此,沒有必要把嚴(yán)苛的產(chǎn)品責(zé)任原則如此迅速地適用到人工智能上來。我們還是應(yīng)該適用過錯責(zé)任原則,既有利于鼓勵人工智能的發(fā)展,給模型的開發(fā)、設(shè)計、制造者提供創(chuàng)新空間,同時也兼顧對受害人保護(hù),這是最佳的選擇。

  問題的關(guān)鍵是這個過錯怎么判斷,我們的建議還是以違反注意義務(wù)為標(biāo)準(zhǔn)。例如,違反了合規(guī)義務(wù)就可能會導(dǎo)致侵權(quán),就表明模型的開發(fā)、設(shè)計、制造者等是有過錯的,應(yīng)該承擔(dān)相應(yīng)的責(zé)任。這些合規(guī)義務(wù)在相關(guān)的法規(guī)規(guī)章等規(guī)范性文件中存在著明確的規(guī)定。例如,模型的設(shè)計者必須將有關(guān)教唆從事違法行為的相關(guān)信息過濾掉。否則,如果生成出類似的信息,就有可能構(gòu)成侵權(quán)。

  2.人工智能侵權(quán)的過錯判斷應(yīng)遵循場景化原則。人工智能發(fā)展引發(fā)侵權(quán)場景的多樣性,不同場景的風(fēng)險和防范程度差別非常大,對其不能采取“一刀切”的方式,而應(yīng)結(jié)合具體場景來確定風(fēng)險防控的成本比較和合理義務(wù)。比如,利用人工智能收集他人的各種碎片化信息,并不一定都構(gòu)成侵權(quán)。如果通過信息處理,旨在為用戶提供個性化的服務(wù),這對用戶是有利的,不構(gòu)成侵權(quán)。但如果專門針對某個特定的個人,收集其行蹤信息或生活隱私,甚至將這些信息打包出售,這就有可能構(gòu)成對他人信息和隱私的侵害。這就是說,要以具體用途等做場景化的分析判斷。

  3.人工智能侵權(quán)規(guī)則要考慮現(xiàn)有技術(shù)水平。人工智能發(fā)展到今天,仍存在一些現(xiàn)有技術(shù)無法克服的困難和障礙,比如說人工智能會產(chǎn)生幻覺或臆想,因此其生成出來的虛假信息,可能是臆想的產(chǎn)物。但是,在現(xiàn)有的技術(shù)條件下,暫時無法克服這些技術(shù)困境。因此,如果模型的制造者和設(shè)計者已經(jīng)盡到最大努力,但在現(xiàn)有技術(shù)條件下,仍然難免生成出某些虛假信息,則就不能認(rèn)定它是有過錯的。在侵權(quán)責(zé)任法中,產(chǎn)品責(zé)任有“發(fā)展風(fēng)險抗辯”,醫(yī)療侵權(quán)中有現(xiàn)有醫(yī)療技術(shù)無法診治的抗辯,這些規(guī)則也可以適用于生成式人工智能的侵權(quán),即人工智能侵權(quán)規(guī)則也應(yīng)引入現(xiàn)有技術(shù)條件的抗辯規(guī)則。

  4.人工智能侵權(quán)過錯認(rèn)定要綜合考慮風(fēng)險程度和防范成本進(jìn)行效益判斷。有時候風(fēng)險確實已經(jīng)形成,但是要完全地消除或防范風(fēng)險可能需要付出巨大的成本代價,這時候一定要求模型的制造者和設(shè)計者付出極高的成本費用去消除風(fēng)險,從經(jīng)濟上也是極不合理的。例如,模型生成出來某條虛假信息,相關(guān)當(dāng)事人就要求模型必須優(yōu)化或者將有關(guān)訓(xùn)練數(shù)據(jù)中的虛假信息予以刪除,這可能對模型來說負(fù)擔(dān)太重,因為它要在海量數(shù)據(jù)中識別某條特定信息,本身是非常困難的。要其予以刪除,在技術(shù)上也很難實現(xiàn),通常只能對關(guān)鍵詞進(jìn)行過濾,但過濾的關(guān)鍵詞不宜太多,否則也會增加過重的成本負(fù)擔(dān)。因此,在認(rèn)定過錯時,就涉及一個風(fēng)險防范成本的判斷問題。

  5.要注重區(qū)分人工智能服務(wù)提供者的過錯和用戶的過錯。DeepSeek是交互的,其生成的結(jié)果有語料的來源,同時也依賴于用戶輸入的指令、信息。如果用戶故意提供虛假信息引誘大模型做出虛假判斷,這種情況下可以認(rèn)為主要是用戶的過錯。

  三、人工智能侵權(quán)的具體問題

  1.服務(wù)提供者過錯認(rèn)定應(yīng)類推適用避風(fēng)港規(guī)則。避風(fēng)港規(guī)則規(guī)定在《民法典》第1195條,是為平臺侵權(quán)設(shè)定的一個保護(hù)規(guī)則。人工智能侵權(quán)能否援用避風(fēng)港規(guī)則?我個人認(rèn)為是可以的。人工智能侵權(quán)和網(wǎng)絡(luò)侵權(quán)有很大的相似性,它們都借助網(wǎng)絡(luò),雖然有差異,但是基本應(yīng)用場景還是相同的,尤其是我們要考慮怎么有利于促進(jìn)人工智能的發(fā)展,對大模型我們還是要鼓勵它發(fā)展,采用避風(fēng)港是一個很有效的辦法。避風(fēng)港規(guī)則有利于保護(hù)服務(wù)提供者的利益,避免出現(xiàn)一旦生成虛假信息就使服務(wù)提供者擔(dān)責(zé)的現(xiàn)象。

  2.AI對已公開信息的利用。生成式人工智能對于已公開個人信息的利用是一個受爭議的話題。歐盟將已公開的個人信息視同一般信息,對它們給予同等保護(hù)。美國則不再保護(hù)已公開的個人信息。對于已公開的個人信息,我認(rèn)為應(yīng)當(dāng)回歸《民法典》和《個人信息保護(hù)法》的規(guī)定?!睹穹ǖ洹芬环矫婷鞔_對其予以保護(hù),另一方面也將其跟一般的個人信息區(qū)分開。《民法典》第1036條規(guī)定,如果處理已公開的個人信息會給個人造成重大利益侵害,這時候該個人享有拒絕權(quán)。這個“重大利益侵害”就是規(guī)范已公開個人信息收集處理的重要標(biāo)準(zhǔn)。例如,將從網(wǎng)上已公開的各類信息收集處理,其中可能涉及到某個人的隱私,如果將該信息打包出售,就可能造成對個人權(quán)益的重大侵害。

  3.敏感個人信息問題。針對人工智能情形下的敏感個人信息。不能簡單照搬和適用單獨同意,要對《民法典》《個人信息保護(hù)法》的相關(guān)規(guī)定,結(jié)合具體場景作出解釋。要區(qū)分應(yīng)用場景的具體情形,一是看它是否公開,二是看它是訓(xùn)練階段還是商業(yè)應(yīng)用階段,三是區(qū)分處理敏感個人信息是否針對特定的個人。即便在人工智能訓(xùn)練階段,開發(fā)者處理敏感個人信息的動機也存在差異。如果針對特定人搜集其敏感個人信息,是為了刺探特定人的隱私,這就有可能構(gòu)成侵權(quán)。但如果是泛泛的搜集他人已公開的敏感個人信息作為語料進(jìn)行訓(xùn)練或優(yōu)化模型,這不一定構(gòu)成侵權(quán)。

  4.已公開的作品數(shù)據(jù)問題。關(guān)于已公開的作品數(shù)據(jù),如對作品的數(shù)據(jù)處理,在人工智能環(huán)境下是不是一定都要取得作者的同意?這是一個受爭議的話題。從鼓勵人工智能發(fā)展來看,如果對已公開的作品數(shù)據(jù)都要求取得作者同意,那么人工智能的語料就會大大受限。在這種情形下,談判成本極高,可以說市場已經(jīng)失靈。能不能就把它歸入《著作權(quán)法》第22條規(guī)定的合理使用中去?我個人是贊成這個看法的,這就是合理使用的范圍,對個人著作權(quán)要做合理限制。

  5.深度偽造問題。深度偽造目前發(fā)展迅猛,深度偽造技術(shù)如果不得到有效地規(guī)范,會帶來很大的風(fēng)險。這個問題的解決還是要回到《民法典》第1019條的規(guī)定,禁止利用深度偽造技術(shù)侵害他人權(quán)益。侵害權(quán)益是一個基本標(biāo)準(zhǔn),只要造成權(quán)益侵害就是有過錯的。為了防止侵害權(quán)益,必須要有一定的義務(wù)如合規(guī)義務(wù)等。

  總之,人工智能發(fā)展伴生著風(fēng)險與挑戰(zhàn)。為服務(wù)于促進(jìn)人工智能國家戰(zhàn)略發(fā)展的重大戰(zhàn)略,我們應(yīng)堅持“發(fā)展中規(guī)范,規(guī)范中發(fā)展”的監(jiān)管理念。面對新領(lǐng)域、新技術(shù)和新挑戰(zhàn),我們的執(zhí)法和司法更需秉持審慎、包容、開放理念,保障人工智能在安全、可靠、可控前提下有序發(fā)展,營造鼓勵創(chuàng)新的良好營商環(huán)境。

更多精彩,請關(guān)注“官方微信”

11.jpg

 關(guān)于國脈 

國脈,是營商環(huán)境、數(shù)字政府、數(shù)字經(jīng)濟、低空經(jīng)濟、民營經(jīng)濟、產(chǎn)業(yè)發(fā)展、數(shù)字企業(yè)等領(lǐng)域的專業(yè)提供商。創(chuàng)新提出"軟件+咨詢+數(shù)據(jù)+平臺+創(chuàng)新業(yè)務(wù)"五位一體服務(wù)模型,擁有營商環(huán)境督查與考核評估系統(tǒng)、政策智能服務(wù)系統(tǒng)、數(shù)據(jù)資源目錄系統(tǒng)、數(shù)據(jù)基因、數(shù)據(jù)母體、數(shù)據(jù)智能評估系統(tǒng)等幾十項軟件產(chǎn)品,長期為中國城市、政府和企業(yè)提供專業(yè)咨詢規(guī)劃和數(shù)據(jù)服務(wù),廣泛服務(wù)于發(fā)改委、營商環(huán)境局、考核辦、數(shù)據(jù)局、行政審批局等政府客戶、中央企業(yè)和高等院校。

責(zé)任編輯:wuwenfei