郵件系統(tǒng):
用戶名: 密碼:
2024年10月23日 星期三
位置: 首頁 》法學人物 》法界資訊 》學者觀點
劉艷紅:生成式人工智能的三大安全風險及法律規(guī)制 以ChatGPT為例

時間:2023-08-01   來源:法治網(wǎng)  責任編輯:陳聰

□ 劉艷紅 (中國政法大學刑事司法學院教授、博士生導師)

4月11日,中國國家互聯(lián)網(wǎng)信息辦公室《生成式人工智能服務(wù)管理辦法(征求意見稿)》規(guī)定,生成式人工智能,“是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)”。2022年11月,OpenAI公司推出了名為ChatGPT的生成式人工智能。生成式人工智能是元宇宙技術(shù)架構(gòu)的終極樣態(tài)之一,其加速了元宇宙的實現(xiàn),而元宇宙也為其提供了良好的技術(shù)運行環(huán)境。在生成式人工智能技術(shù)的推動下,元宇宙的概念不但沒有“褪色”,反而獲得了新的發(fā)展動能。尤其是聽得懂、說得出、能互動的GPT4的面世,使社會各行各業(yè)都遭受到了不同程度沖擊。與以往的人工智能技術(shù)相比,ChatGPT等生成式人工智能給人類社會帶來的潛在風險真實而緊迫。

如果說互聯(lián)網(wǎng)引發(fā)了空間革命、智能手機引發(fā)了時間革命的話,ChatGPT類技術(shù)正在引發(fā)人類社會的知識革命。埃隆·馬斯克評價說其不亞于iPhone、比爾·蓋茨說其不亞于重新發(fā)明互聯(lián)網(wǎng)、周鴻祎認為其可類比蒸汽機和電力的發(fā)明。相較于已有的人工智能技術(shù),ChatGPT的現(xiàn)象級躥紅得益于大規(guī)模語言模型和生成式人工智能架構(gòu)所塑造的技術(shù)性能的實質(zhì)躍升。海量數(shù)據(jù)與強大算力支撐之下的“涌現(xiàn)”能力使得ChatGPT類技術(shù)不僅可以“理解”人類自然語言,“記住”訓練期間獲得的大量事實,還可以基于“記住”的知識生成高質(zhì)量的內(nèi)容。良好的互動性、高度通用性與智能生成性正在加速ChatGPT類技術(shù)與人類社會形成更加剛性、高頻、泛在與深刻的聯(lián)結(jié)。與之對應(yīng),這也意味著ChatGPT類技術(shù)給人類社會帶來的潛在風險較之已有的人工智能技術(shù)而言更具現(xiàn)實緊迫性。深度學習之父杰弗里·辛頓在談及ChatGPT時認為,“多數(shù)人認為這(AI危害)還很遙遠。我過去也認為這還很遙遠,可能是30到50年甚至更長的時間。但顯然,我現(xiàn)在不這么想了”。在此背景下,分析生成式人工智能的潛在風險并提出法律治理路徑就絕非科幻意義上的“感性空想”,而是建構(gòu)在現(xiàn)實基礎(chǔ)之上的理性思考。為此,如何結(jié)合生成式人工智能的運行機理與安全風險進行法律規(guī)制,成為當下科技界、產(chǎn)業(yè)界、法律界共同關(guān)注的話題。

生成式人工智能的運行分為三個階段,即機器學習與人工標注的準備階段、算法處理數(shù)據(jù)的運算階段以及產(chǎn)出物流入社會的生成階段,對應(yīng)了準備階段的數(shù)據(jù)安全風險、運算階段的算法偏見風險以及生成階段的知識產(chǎn)權(quán)風險,需要對此進行事先預防并提供法律保護。

強基賦能:生成式人工智能準備階段中的數(shù)據(jù)安全風險與合規(guī)處置

ChatGPT在準備階段的數(shù)據(jù)分為國家數(shù)據(jù)、政務(wù)數(shù)據(jù)以及個人數(shù)據(jù),并分別存在一定的安全風險,應(yīng)該進行合規(guī)處置。第一,針對國家數(shù)據(jù),應(yīng)該基于總體國家安全觀的理念進行統(tǒng)籌規(guī)劃,構(gòu)建審查分級監(jiān)管機制,采用穿透式監(jiān)管的模式來分析國家數(shù)據(jù)的產(chǎn)生來源、內(nèi)容架構(gòu)以及潛在價值,從而保護數(shù)據(jù)主權(quán)。第二,針對政務(wù)數(shù)據(jù),應(yīng)該根據(jù)國家的整體布局來構(gòu)建對應(yīng)的合規(guī)監(jiān)管體系,由政務(wù)機構(gòu)在事前報備可以公開利用的數(shù)據(jù),設(shè)立限制加工利用的前提要件。第三,針對個人數(shù)據(jù),應(yīng)該設(shè)置獨立監(jiān)督機構(gòu)來審查收集廣度,基于最小比例原則限制收集深度,同時禁止其編造虛假回復。

內(nèi)核優(yōu)化:生成式人工智能運算階段中算法模型的分析與糾偏

《生成式人工智能服務(wù)管理辦法(征求意見稿)》第四條(二)規(guī)定,在算法設(shè)計、訓練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中不得出現(xiàn)各類歧視。ChatGPT在機器學習的同時,通過人工標注來修正和校對機器學習的結(jié)論,而“機器學習+人工標注”作為算法技術(shù)內(nèi)核,在提升技術(shù)水平的同時也會增加算法偏見的風險。鑒于此,應(yīng)該遵循技管結(jié)合理念,從技術(shù)與規(guī)范兩方面進行全流程監(jiān)管。第一,針對先天性算法偏見調(diào)整算法的學習路徑,強調(diào)算法應(yīng)該遵守技術(shù)標準,在算法程序編譯環(huán)節(jié)進行預防、調(diào)整和校對,設(shè)置統(tǒng)一的人工標注規(guī)范標準,避免造成偏向性誤導。第二,針對后天性算法偏見,應(yīng)該建立自動化、生態(tài)化、全流程的動態(tài)監(jiān)管體系,自動對運行全程進行實時監(jiān)控,構(gòu)建多主體的生態(tài)化監(jiān)管網(wǎng)絡(luò),落實全流程覆蓋的監(jiān)管機制。

提質(zhì)增效:生成式人工智能生成階段中知識產(chǎn)權(quán)的剖析與重塑

ChatGPT在生產(chǎn)中注入自主意識,通過神經(jīng)卷積網(wǎng)絡(luò)形成深度學習能力,而這也給知產(chǎn)保護帶來巨大挑戰(zhàn)。第一,公眾向ChatGPT反饋自己的需求,這表明人類意志已經(jīng)干預了ChatGPT的創(chuàng)作。第二,算法中的人工標注模式注入了人的意志,可以追溯和解釋結(jié)論產(chǎn)生路徑。第三,ChatGPT具備一定的“自我反省能力”,解釋其運行機理具有實際可行性。因此,ChatGPT的生成物具有獨創(chuàng)性與創(chuàng)新性,應(yīng)該被賦予知識產(chǎn)權(quán)并加以保護。當前應(yīng)該構(gòu)建重點突出的知產(chǎn)合規(guī)保護體系,ChatGPT的可解釋性算法及其生成的內(nèi)容具有獨創(chuàng)性與創(chuàng)新性,屬于重點保護對象。具體合規(guī)保護任務(wù)分為提供一般預防措施的基礎(chǔ)性保護與強化技術(shù)特征的專門性保護,最終構(gòu)建全流程保護體系,并及時引入全新的知產(chǎn)保護技術(shù)。

總之,伴隨生成式人工智能技術(shù)的蓬勃發(fā)展,必須提前預防可能產(chǎn)生的安全風險,比如影響教育公平、科研倫理、環(huán)境保護、數(shù)字鴻溝等。為了規(guī)避技術(shù)主義的陷阱,需要分析生成式人工智能對當前及未來社會可能造成的影響,并提供法律規(guī)制手段,在發(fā)揮技術(shù)效能的同時減少社會負面影響。

全文
搜索

關(guān)注
微信

關(guān)注官方微信

關(guān)注
微博

關(guān)注官方微博

網(wǎng)絡(luò)
信箱