郵件系統(tǒng):
用戶名: 密碼:
2024年10月23日 星期三
位置: 首頁 》法學人物 》法界資訊 》學者觀點
吳漢東:人工智能時代的制度安排與法律規(guī)制

時間:2017-12-08   來源:《法律科學》2017年第5期  責任編輯:att2014

  在人工智能技術日新月異的時代變革中,人類/機器人關系所引發(fā)的各種法律、政策和倫理問題緊迫地擺在我們的面前。如何調(diào)整“促進”與“規(guī)制”人工智能發(fā)展的法律價值目標?如何應對人工智能技術帶來的社會風險?如何設計人工智能時代的調(diào)控規(guī)范體系?這些問題不僅涉及對傳統(tǒng)法律制度的深刻反思,更是以“未來法學”問題為主旨的有益探索。

  一、智能革命圖景:“最后的發(fā)明”抑或最大的風險

  進入新世紀以來,人類社會的文明演化呈現(xiàn)出加速發(fā)展的態(tài)勢。21世紀的最初十年,以互聯(lián)網(wǎng)的普及使用為紐帶,社會結構得以重新組織,人類社會與物理社會廣泛連接,自此開啟了與以往有別的網(wǎng)絡社會時代;時至2010年左右,基于廣泛分布的傳感技術、大規(guī)模數(shù)據(jù)存儲和通信技術的應用,數(shù)據(jù)規(guī)模呈現(xiàn)指數(shù)型上升,地球村由此步入大數(shù)據(jù)時代;進入新世紀第二個十年的下半段,伴隨著數(shù)據(jù)處理能力的飛速提高,人工智能對社會開始深度介入,世界正在走向人工智能時代。

  整體而論,“人類在進入到21世紀的三個關鍵時間點,相繼出現(xiàn)了三個互相聯(lián)系又略有區(qū)別的新時代,即網(wǎng)絡社會時代、大數(shù)據(jù)時代、人工智能時代,三者共同構成了新的社會時代?!?/span>

  智能時代是以人工智能(Artificial Intelligence,簡稱AI)來命名的,作為研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統(tǒng)的一門新的技術科學,旨在了解智能的實質(zhì),并生產(chǎn)出一種新的能以人類智能相似方式做出反應的智能機器,其研究領域包括機器人、語音識別、圖像識別、自然語言處理和專家系統(tǒng)等。這一技術科學將改變甚至顛覆人類現(xiàn)存生產(chǎn)工作和交往方式,由此出現(xiàn)一個以新的技術結構支撐新的社會結構的人類新時代。

  “這是最好的時代,也是最壞的時代”,英國文學巨匠狄更斯在其名著《雙城記》中的開篇話語,一百多年來不斷地被人引用。在這里,我們再次以此來描繪人工智能時代的未來圖景。一方面,智能革命無疑將給我們帶來一個更美好的社會,它是智能的、精細化和人性化的“最好時代”。

  在云計算、大數(shù)據(jù)、深度學習算法、人腦芯片的催化下,人工智能模擬和表現(xiàn)了人類的智慧動力,并以高于人類的工作速度、優(yōu)于人類的工作精度、勝于人類的工作態(tài)度,協(xié)助人類解決各種各樣的問題,包括危險場合和極端環(huán)境的難題,從而形成人類智慧的創(chuàng)造力優(yōu)勢與人工智能的操作性優(yōu)勢之間的強強合作。人工智能現(xiàn)已成為全球新一輪科技革命和產(chǎn)業(yè)變革的著力點,在人類智慧能力無窮增大的“科學夢”背后,是一片蘊藏無限生機的產(chǎn)業(yè)“新藍?!?。

  社會正在從“互聯(lián)網(wǎng)+”向“人工智能+”轉型,舊領域生發(fā)出新的產(chǎn)業(yè)形態(tài),多領域催生了新興的細分行業(yè),由此創(chuàng)造出巨大的經(jīng)濟價值和社會財富。在谷歌、臉譜、IBM等領軍企業(yè)的帶領下,全球對人工智能的關注度不斷提升。截至2015年,人工智能國際市場的規(guī)模為1683億元,預計到2018年將增至2697億元,增長率達到17%。在投資規(guī)模方面,2015年為484億元,預計到2020年,投資總量將達到1190億元。

  可以認為,人工智能將從專業(yè)性較強的領域逐步拓展到社會生活的各個方面,人類未來會在“萬物皆互聯(lián)、無處不計算”的環(huán)境下精準生活。但另一方面,智能革命也將給我們帶來諸多麻煩,也許我們面臨著一個社會問題叢生和安全隱患不斷的“最壞時代”。

  到目前為止,人工智能已在全球范圍內(nèi)逐步建立起自己的生態(tài)格局,并開始深度介入人類的社會生活。2016年,距離麥卡錫、明斯基、香農(nóng)等人提出人工智能的概念正好過去60年。在過去的一年,人們看到了許多存在于科幻小說的內(nèi)容成為現(xiàn)實:人工智能擊敗了人類頂尖棋手,自動駕駛汽車技術日趨成熟,生產(chǎn)線上活躍著“機器人”群體…… “智能時代,未來已來”。人們在為人工智能的強大能力感到驚嘆的同時,也激發(fā)了對人工智能安全問題的普遍憂慮,人工智能是否成為人類“最后的發(fā)明”?我們應該如何看待人工智能的潛在風險?

  人工智能對人類社會的潛在風險,聚焦于威脅人類自身安全的可能性,涉及人類基本權益的生命與健康、尊嚴與隱私、安全與自由??茖W家認為,人工智能存在著威脅人類存續(xù)的可能性,但這種風險不是由于自發(fā)的惡意所引起,而應來自人工智能發(fā)展過程中出現(xiàn)的不可預測性和潛在的不可逆性。

  質(zhì)言之,人類有智慧能力創(chuàng)造出人工智能,也應有能力和理智來控制人工智能。因此,“最好是期待人類的聰明才智,而非低估它;最好是承認風險的存在,而非否認它。”我們應當思考的不是消滅客觀危險,而是在這些潛在的威脅和挑戰(zhàn)面前,增強風險認識能力,提高制度風險意識,通過法律和其他社會規(guī)范來預防規(guī)避風險,引導規(guī)范人工智能技術健康發(fā)展,這即是法學家、法律家的任務。

  人工智能的首要問題是安全問題,可以置于風險社會理論的研究范疇之中。德國學者貝克認為,人類面臨著威脅其生存的由社會所制造的風險。現(xiàn)代化正在成為它自身的主題和問題,因此變得具有反思性。風險概念表明人們創(chuàng)造了一種文明,以便使自己的決定將會造成的不可預見的后果具備可預見性,從而控制不可控制的事情。

  在風險理論中,人工智能存在著現(xiàn)代性的負面影響,因此有必要采取風險措施,即預防性行為和因應性的制度。對風險社會問題的法學研究,其重點是法律制度與法律秩序?!胺芍贫鹊膬r值和意義就在于規(guī)范和追尋技術上的可以管理的哪怕是可能性很小或影響范圍很小的風險和災難的每一個細節(jié)?!倍芍刃騽t是法律制度實行和實現(xiàn)的效果,即社會生活基本方面的法律和制度化。現(xiàn)代社會是法治社會,制度風險及風險法律控制是風險社會法學研究理論的基本內(nèi)涵。

  人工智能既是人類文明,亦有社會風險。它或是“技術—經(jīng)濟”決策導致的風險,也可能是法律所保護的科技文明本身所帶來的風險。換言之,知識問題是現(xiàn)代性風險的根本成因,制度以至法律選擇的實質(zhì)應是基于風險的決策。正是在這個意義上,貝克提出知識經(jīng)濟就是“風險經(jīng)濟”,“風險就是知識中的風險”。具體說來,人工智能時代的社會風險具有以下特點:

  一是風險的共生性。風險社會的內(nèi)在風險,基于技術性風險和制度化風險而形成,且存在共生狀態(tài)。人工智能時代是一個高度技術化的社會,科學技術的高度發(fā)展既是風險社會的特征,也是風險社會的成因。現(xiàn)代社會中的風險是“被制造出來的風險”,是由我們不斷發(fā)展的知識對這個世界的影響所產(chǎn)生的風險。

  馬克斯?韋伯形象地指出,人類在不久的將來注定會生活在“技術知識的囚室”。人工智能是知識革命中最具代表性和影響力的時代技術?!皩χR體系和技術性知識的信任,是人們在風險社會中獲得和持有本體性安全的基礎和保證?!睆摹胺此嫉默F(xiàn)代性出發(fā),對法律及其保護的先進技術僅為信任是不夠的,人工智能在其發(fā)展過程中出現(xiàn)的不可預測性和潛在的不可逆性”,其本身就是一種風險。

  同時,人工智能時代的風險含義,還依賴于這樣的一個事實,即文明的決策可能觸發(fā)全球化進程中的一系列問題和一連串的風險,直言之,“風險以決策為先決條件”。制度風險可能來自我們的工業(yè)制度、科技政策乃至法律規(guī)則,或是表現(xiàn)為對新技術無措的“制度缺失”,或是表現(xiàn)為對新技術錯判的“制度失敗”。這些即是規(guī)則運轉失靈的風險,其結果形成制度化風險。

  二是風險的時代性。在風險社會理論中,風險社會這一概念并不是社會發(fā)展類型的某一歷史分期,也不是某個具體社會和國家的現(xiàn)實發(fā)展階段,而是對當今人類時代問題的理論概括與形象描述。智能革命是時代的產(chǎn)物,其特點是人類智力與人工智力的結合,智能技術導致智力物質(zhì)化、社會智能化,最終出現(xiàn)智能社會。

  智能社會的形成將是一個長期的過程,或者說是一個時代變遷。以人類思維能力和意識的遷移為表征,以智能機器人的活動為中心,人工智能的發(fā)展將會遞進呈現(xiàn)出不同階段。如何應對智能時代中現(xiàn)實世界與理念世界的分離,如何防范病毒、黑客對人工智能產(chǎn)品的侵蝕,這種高科技所引發(fā)的高風險會持續(xù)整個智能革命的時代過程,它是現(xiàn)實的風險,也是未來潛在的風險。

  三是風險的全球性。經(jīng)濟全球化、科技全球化、信息全球化乃至治理機制的全球化,不可避免地帶來風險的全球性。反全球化主義者認為,全球化正在催生另一種形態(tài)的帝國體制:互聯(lián)網(wǎng)是“信息帝國主義”,世界貿(mào)易組織是“市場帝國主義”,國際貨幣基金組織是“金融帝國主義”,而聯(lián)合國是“政治外交的帝國主義”。貝克對此作出了自己的判斷:全世界面臨著社會認同解體、價值利益沖突、主體組織對立、國家立場對峙、生態(tài)環(huán)境破壞等不確定因素,這些危機與發(fā)展遍布全球,形成對人類生存的新威脅。

  可以認為,風險社會是一種“全球風險社會”,風險的空間影響超越了地理邊界和社會文化的邊界。正如吉登斯所言,“在全球化的時代里,風險的影響被普遍化了?!痹谌斯ぶ悄茱L險的國際應對方面,2016年聯(lián)合國發(fā)布《人工智能政策報告》,表達了對人工智能的關注,并針對人工智能技術發(fā)展帶來的各種問題,提出了新的思考方式和解決途徑。報告呼吁世界各國加強在人工智能技術研究與開發(fā)領域的合作,共同應對智能機器人在就業(yè)、倫理道德以及法律層面帶來的挑戰(zhàn)。

  科學技術在人類的文明進步中總是扮演著最活躍、最革命的角色。面對智能革命,我們不能逃避它、否定它和阻止它。上述判斷依賴于以下兩點事實:

  第一,人工智能技術在造福人類的同時也加大了人類危害自身的可能性,這即是技術的負面性與風險的不確定性的聯(lián)系。

  第二,傳統(tǒng)社會治理體系無力解決工業(yè)社會過度發(fā)展而產(chǎn)生的社會問題,這即是法律的確定性與風險的不確定性的背離。對于現(xiàn)代各國而言,人工智能發(fā)展的政策考量,其實是基于風險的制度選擇和法律安排,我們應“通過法律化解風險”,“通過法律吸納風險”,“將風險社會置于法治社會的背景之中”,即對智能革命時代的法律制度乃至整個社會規(guī)范進行新的建構。

  二、人工智能技術在挑戰(zhàn)我們的法律

  智能革命的出現(xiàn),對當下的倫理標準、法律規(guī)則、社會秩序及公共管理體制帶來一場前所未有的危機和挑戰(zhàn)。它不僅與已有法律秩序形成沖突,凸顯現(xiàn)存法律制度產(chǎn)品供給的缺陷,甚至會顛覆我們業(yè)已構成的法律認知。就調(diào)整人工智能相關社會關系的法律制度而言,人們的擔憂多于期待、疑慮甚于創(chuàng)制。現(xiàn)擇其主要問題分析如下:

  (一)機器人法律資格的民事主體問題

  隨著人工智能技術的快速發(fā)展,機器人擁有越來越強大的智能,機器人與人類的差別有可能逐漸縮小。未來出現(xiàn)的機器人將擁有生物大腦,甚至可以與人腦的神經(jīng)元數(shù)量相媲美。美國未來學家甚至預測:在本世紀中葉,非生物智能將會10億倍于今天所有人的智慧。

  是否賦予機器人以虛擬的“法律主體資格”,在過去的一段時期,美英等國的哲學家、科學家包括法律家都為此開展過激烈的爭論。2016年,歐盟委員會法律事務委員會向歐盟委員會提交動議,要求將最先進的自動化機器人的身份定位為“電子人”(electronic persons),除賦予其“特定的權利和義務”外,還建議為智能自動化機器人進行登記,以便為其進行納稅、繳費、領取養(yǎng)老金的資金賬號。該項法律動議如獲通過,無疑使得傳統(tǒng)的民事主體制度產(chǎn)生動搖。

  機器人是機器還是人,在法理上涉及到主客體二分法的基本問題。在民法體系中,主體(人)與客體(物)是民法總則的兩大基本制度。主體與客體、人與物之間有著嚴格的區(qū)別。凡是人以外的不具有精神、意思的生物歸屬于物,是為權利的客體。主客體之間這種不可逾越的鴻溝現(xiàn)在正發(fā)生動搖。

  從基因時代到智能時代的一個重要變化是,傳統(tǒng)民法的主、客體框架已然打破:人的遺傳基因物質(zhì)不能簡單作為客體物看待,而沒有生命但具有人工智能的機器人也有可能被賦予法律資格。將機器人視為“人”,賦予其相應的主體資格,難以在現(xiàn)有的民法理論中得到合理的解釋。民法意義上的人,須具有獨立之人格(權利能力),該主體既包括具有自然屬性的人(自然人),也包括法律擬制的人(法人)。日本學者北川善太郎認為,在民法上,“法的人格者等于權利能力者”,關于人或法人的規(guī)定,“表現(xiàn)了最抽象化層次的抽象的法人格”。

  法人格概念的意義在于揭示民事主體的內(nèi)在統(tǒng)一性和其實質(zhì),界定主體與客體的關系?!懊袷履芰Ω拍畹囊饬x在于揭示民事主體的差異性,具體刻畫民事主體存在與活動的狀態(tài)與特征?!?/span>

  從法律技術邏輯層面看,《德國民法典》以權利能力核心概念為中心,進行主體人格的制度設計。在財產(chǎn)權領域,這種構架中的邏輯關系就是“經(jīng)濟人—權利能力—法律人”。在自然人人格場合,“法律人”的成立是以倫理價值為依據(jù),將倫理價值從人的范疇中抽去之后,即通過權利能力將“生物人”自然本性與“法律人”的法律屬性直接連接的。而在法人人格場合,由于權利能力扮演“團體人格”的角色,從而形成“團體—權利能力—法律人”的邏輯關系,從而使得法人與同為“法律人”的自然人一樣在某些方面享有人格利益成為可能。

  基于上述分析,可以認為:機器人不是具有生命的自然人,也區(qū)別于具有自己獨立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格,在法理上尚有斟榷之處。據(jù)多數(shù)科技專家研究,由于人造機器沒有自身的目的,其工作目的非常特定,且為人類設計者所設計。質(zhì)言之,機器人生成的目的行為,與人類有目的、有意識的行為性質(zhì)完全不同;同時,機器人沒有自身積累的知識,其機器知識庫的知識都是特定領域的,并且都是人類輸入的。

  在這種情況下,模擬和擴展“人類智能”機器人雖具有相當智性,但不具備人之心性和靈性,與具有“人類智慧”的自然人和自然人集合體是不能簡單等同的。換言之,受自然人、自然人集合體——民事主體控制的機器人,尚不足以取得獨立的主體地位。

  (二)人工智能生成作品的著作權問題

  人工智能的實質(zhì),是“讓機器從事需要人的智能工作”,包括下棋、解題、從事數(shù)學發(fā)現(xiàn)、學習新的概念、解釋視覺場景、診斷疾病、推理條件等?;诖?,文學、藝術和科學作品的創(chuàng)作也在機器人的智能范圍之內(nèi)。從計算機到機器人的發(fā)展,在作品創(chuàng)作方面即是一個從閱讀到寫作的跨越。

  在機器人時代,某些作品就是人工智能的生成內(nèi)容。據(jù)美國Narrative Science的預測,未來15年將有90%的新聞稿件由機器人完成,大量的美術、音樂等藝術作品也將出自人工智能創(chuàng)作。機器人的寫作方式,采取“信息→知識→智能”的技術路徑,基于“人機合作”系統(tǒng)而導致內(nèi)容生成。該行為是否構成法律意義上的“獨創(chuàng)性”或“主觀能動性”,一些國家和地區(qū)的法學家試圖作出正面回應。

  有消息稱,日本準備立法保障人工智能的著作權作品,以防止機器人創(chuàng)作中的抄襲之風;歐盟法律事務委員會提出動議,擬賦予機器人以著作權。

  關于人工智能的生成作品,著作權法有兩個問題需要解決,即機器人設計的作品是否享有權利?該項權利應歸屬于機器還是創(chuàng)制機器的人?據(jù)專家研究,人工智能生成的作品,目前還處于在特定的格式和寫作模板下傳達信息、表達意思的階段,尚不能無限定格式地寫作內(nèi)容。盡管機器人稿件的表達技巧有限,但仍可以視為著作權法意義上的作品。依世界知識產(chǎn)權組織的權威解釋,作品須具獨創(chuàng)性,即“作品是作者自己的創(chuàng)作,完全不是或基本上不是從另一作品抄襲來的?!?/span>

  這就是說,人工智能生成之內(nèi)容,只要由機器人獨立完成,即構成受著作權保護的作品,至于其用途、價值和社會評價則在所不問。機器人作品享有著作權,但機器人并不能像自然人作者或法人作者那樣去行使權利,換言之,該項著作權應歸屬于機器人的創(chuàng)造人或所有人。

  這是因為,機器人是機器而不是“人”,它是依靠數(shù)據(jù)和算法而完成寫作,該機器人以及其寫作的技術路徑無一不是人類創(chuàng)制。在這種情況下,法律可以通過保護機器人作品以達到保護機器人的創(chuàng)造人和所有人的目的。具言之,可參照著作權法關于職務作品或雇傭作品的規(guī)定,由創(chuàng)制機器的“人”而不是機器人去享有和行使權利。

  (三)智能系統(tǒng)致人損害的侵權法問題

  智能型“新一代機器人”,與傳統(tǒng)的執(zhí)行重復任務的工業(yè)機器人不同,它擁有相對的自主權和更高的人工智能水平,且將廣泛而深入地參與人類社會的生活?!爸悄苄蜋C器人”的廣泛使用,在帶來高效和便捷的同時也不可避免對人類帶來傷害。

  機器人致人損害有兩種情形:

  一是侵權人對智能系統(tǒng)進行非法控制而造成的損害。例如,黑客、病毒等人為因素侵入互聯(lián)網(wǎng),進而控制人類家庭的兒童看護機器人、助老機器人、護士機器人或其他智能系統(tǒng),由此導致危及人類的后果。在這種情況下,發(fā)動黑客攻擊或傳輸病毒的侵權人應該承擔法律責任自不待言,這些不是本文研究的主要話題;

  二是智能系統(tǒng)自身的產(chǎn)品瑕疵而造成的損害。據(jù)報道,早在上個世紀80年代,日本即發(fā)生過工業(yè)機器在作業(yè)現(xiàn)場將工人置入機器壓死的事件;2007年,美國食品藥品監(jiān)督管理局收到200多份投訴,指控醫(yī)療外科手術機器人對病人造成燒傷、切割傷以及感染,其中包含89例導致病患死亡。

  上述致人損害的事由,究竟是機器人創(chuàng)制者的技術漏洞,抑或智能機器管理人的不當使用?甚至可能是人工智能系統(tǒng)超越原控制方案的“自身行為”?在這種情況下,就必須對機器人的過錯行為原因進行分析,以查找侵權主體構成并分擔賠償責任。

  關于智能系統(tǒng)致人損害責任的認定,有兩種責任方式可供選擇:

  一是基于行為人過失所產(chǎn)生的產(chǎn)品責任。在侵權責任法中,產(chǎn)品責任是指產(chǎn)品生產(chǎn)者、銷售者因生產(chǎn)、銷售缺陷產(chǎn)品致使他人遭受人身損害、財產(chǎn)損失或有致使他人遭受人身、財產(chǎn)損害之虞而應承擔的特殊侵權責任。致人損害的產(chǎn)品,必須存在缺陷,它包括制造缺陷、設計缺陷、警示缺陷、跟蹤觀察缺陷。

  上述情形符合智能系統(tǒng)致人損害責任的一般特征。2016年,聯(lián)合國教科文組織會同世界科學知識與技術倫理委員會發(fā)布報告指出,由于機器人一般被視為通常意義上的科技產(chǎn)品,機器人以及機器人技術造成的損害,可由民法中產(chǎn)品責任的相關規(guī)定進行調(diào)整。從產(chǎn)品責任的認定條件來看,機器人造成的損害可歸類于機器人制造者和銷售者的過失,包括產(chǎn)品制造的過失、產(chǎn)品設計的過失、產(chǎn)品警告的過失以及沒有盡到合理的注意義務。

  二是基于技術中立原則所產(chǎn)生的替代責任。關于技術產(chǎn)品致人損害,技術中立原則可提供責任規(guī)避。所謂技術中立原則,是指任何技術本身原則上都不產(chǎn)生責任承擔,但是一項特定技術的主要商業(yè)用途是用來從事侵權或其他違法行為的,那么該項技術即不適用“技術中立”原則。在這種情況下,適用替代責任較為適宜。替代責任又稱為轉承責任,最初出現(xiàn)在代理關系與雇傭關系中,即被代理人對代理人實施的,得到被代理人“授權”或“批準”的侵權行為承擔責任;雇主對其雇員在“雇傭期間”實施的侵權行為承擔責任,概稱為“為他人侵權行為承擔責任”。

  在替代責任情形中,機器人本無瑕疵,符合技術中立原則要求,但機器人的所有人或使用人,或不盡善良管理人之義務,或放任機器人的侵權行為,則不能以技術中立原則免除責任。

  (四)人類隱私保護的人格權問題

  網(wǎng)絡空間是一個真實的虛擬存在,是一個沒有物理空間的獨立世界。在這里,人類實現(xiàn)了與肉體分離的“數(shù)字化生存”,擁有了“數(shù)字化人格”。所謂數(shù)字化人格就是“通過個人信息的收集和處理勾畫一個在網(wǎng)絡空間的個人形象”——即憑借數(shù)字化信息而建立起來的人格。

  個人信息包括了當事人不愿他人知道或他人不便知道的隱私信息,主要類別有:個人登錄的身份和健康狀況、個人的信用和財產(chǎn)狀況、電子郵箱地址、網(wǎng)絡活動蹤跡等。在信息化社會,這些零散的和廣泛的個人信息有可能被收集,并進行數(shù)據(jù)處理,從而拼合成所謂數(shù)字化人格——在很大程度上是被迫建立的人格,個人毫不知情的人格。在今天和未來,當移動互聯(lián)網(wǎng)、大數(shù)據(jù)和機器智能三者疊加后,我們生活在一個“無隱私的社會”。

  面對大數(shù)據(jù)對個人隱私潛在的威脅,我們必須重視智能革命時代隱私權的保護,有三點舉措可供采用:

  一是增強自我保護意識。在當下的移動互聯(lián)和今后的萬物聯(lián)網(wǎng)的時代,我們本身就是隱私的泄密者:智能手機安裝了太多而不甚使用的APP,社交網(wǎng)絡講了太多而不適宜公開發(fā)表的言論,都可能造成隱私泄露;還有各種電子產(chǎn)品,從帶有GPS的照相機到與WIFE相連的智能電器,都精細地記錄私人的行蹤和生活信息。在人工智能時代,挖掘個人隱私是由機器完成的,因此保護隱私,須從自己做起,對智能電器有防范之心;

  二是強化企業(yè)保護用戶隱私的責任。企業(yè)須負有保護用戶隱私的意愿和責任,“這將是用戶隱私是否得到有效保護的關鍵”。在當下,用戶數(shù)據(jù)日益聚集在大型互聯(lián)網(wǎng)或數(shù)據(jù)處理的企業(yè)手中,對其進行保護個人隱私的責任約束就顯得非常重要。在歐盟和美國,根據(jù)政府要求,也出于用戶主張,服務條款應特別聲明從用戶獲得的數(shù)據(jù)屬于用戶本人,如對個人數(shù)據(jù)有不當處置,應承擔責任。這不僅是合同規(guī)定的違約責任,也是違反法律的侵權責任。

  三是加強網(wǎng)絡、電訊隱私保護的專門立法。隱私權的保護應以民法保護為基礎,明確隱私權的權利屬性、權能內(nèi)容、保護方式等;同時以專門法律保護為補充,規(guī)定特定領域的特定主體隱私保護的原則和辦法。

  例如,美國1974年制定《聯(lián)邦隱私權法》,是為隱私權保護的基本法,后又于1986年通過《聯(lián)邦電子通訊隱私法案》,2000年出臺《兒童網(wǎng)上隱私保護法》,此外還頒布了《公民網(wǎng)絡隱私權保護暫行條例》、《個人隱私與國家信息基礎設施》等法律。

  歐盟則在1997年通過《電信事業(yè)個人數(shù)據(jù)處理及隱私保護指令》之后,又先后制定了《網(wǎng)上個人隱私權保護的一般原則》、《信息公路上個人數(shù)據(jù)收集處理過程中個人權利保護指南》等相關法規(guī)。隱私權的保護,是信息時代特別是人工智能時代的法律難題。智能革命不斷深入發(fā)展的過程,亦是隱私安全風險增大與法律保護強化的過程。

  (五)智能駕駛系統(tǒng)的交通法問題

  人工智能在交通領域的重要應用是網(wǎng)聯(lián)自動駕駛。智能駕駛通過導航系統(tǒng)、傳感器系統(tǒng)、智能感知算法、車輛控制系統(tǒng)等智能技術,實現(xiàn)了“人工智能+無人駕駛”,顛覆了以往的人車關系、車車關系。為推動智能駕駛產(chǎn)業(yè)的發(fā)展,美、德、日等國都在探索,甚至出臺了有關交通責任分配的法律規(guī)范和安全檢測市場準入的監(jiān)管政策。

  無人駕駛汽車可能帶來的法律問題,主要有:

  一是法律規(guī)制對象的轉變。無人駕駛意味著交通領域的準入資格,不再是駕駛人的駕駛技術,而是無人駕駛汽車的智能化水平。換言之,隨著無人駕駛中駕駛人概念的消失,法律規(guī)制的對象不再是車輛的駕駛人員,而將是智能駕駛系統(tǒng)的開發(fā)者、制造者;

  二是法律責任體系的重構。以過錯責任為基礎而建立的“風險分配”責任體系,在未來的交通法規(guī)中將不復存在。對于道路交通事故的認定,其歸責事由只有結果的“對與錯”,而無主觀上的“故意”或“過失”。

  三是交通監(jiān)管重心的變化。以交通安全為目標,以往交通管理部門監(jiān)管的重點是汽車裝置的安全性能和駕駛人安全駕駛技能;而在智能駕駛中,避險保障和精確駕駛的軟硬件體系,是道路交通檢測、準入的重點。

  (六)機器“工人群體”的勞動法問題

  人工智能技術發(fā)展的基本面向,是對人-機關系的改變。智能機器人的大規(guī)模應用,一方面推動了社會生產(chǎn)力的發(fā)展,大大提高了生產(chǎn)效率;另一方面也帶來了社會結構的變化,使得人與機器人的關系成為社會生活的重要方面。以保護勞動者利益為宗旨的勞動法,面臨著前所未有的兩個難題:

  一是傳統(tǒng)勞動法的調(diào)整功能消減。據(jù)牛津大學的調(diào)研報告,未來將有1000萬非技術工種被機器人取代,其中包括文秘、工人、中介、司機等一大批崗位。報告特別指出,目前軟件工程師所做的工作將會被智能機器人所代替,即創(chuàng)造者被其創(chuàng)造的技術產(chǎn)品所代替。這些都對現(xiàn)有勞動者的權利帶來沖擊。大批勞動者離開傳統(tǒng)崗位,其權益救濟更多是尋求社會保障法,那么“勞動法是否面臨消亡的命運?”

  二是未來勞動法將面臨新的調(diào)整對象。機器人搶掉人類的飯碗,人工智能“工人群體”正在形成。對機器人權利保護或者說禁止對機器人濫用,在當下尚是一個社會倫理問題,而在未來就成為勞動立法問題。

  歐盟法律事務委員會動議,主張人工智能具有“工人”身份,并賦予其勞動權等“特定權利與義務”;韓國政府起草了《機器人倫理憲章》,其要點包括:保證人類能夠控制機器人、保護機器人獲得的數(shù)據(jù)、禁止人類違法使用機器人、防止人類虐待機器人,應該認識到:智能機器人本質(zhì)是為機器,但亦有人的屬性,對智能機器人的尊重就是對人類自身的尊重??梢灶A見,上述倫理規(guī)范將成為未來立法的組成部分。

  法律制度總是滯后的,但關于法律問題思考應該是前瞻的。面向智能革命時代,我們應在認識和分析現(xiàn)行法律困境的基礎上,探索與科學文明相伴而生的制度文明,創(chuàng)制出有利于人工智能健康、有序發(fā)展的社會規(guī)范體系。

  三、面向未來時代的制度構成:法律、政策與倫理

  法律制度的發(fā)展與變革,每一過程的路徑選擇和規(guī)則設計,其法律思維一般都是客觀事實分析與主觀價值判斷的綜合。就法律制度建設而言,如果總是基于技術及其效應的充分顯現(xiàn),以此形成以技術事實為基礎的社會規(guī)范,那么法律制度的滯后現(xiàn)象將會十分嚴重,最終導致技術法律對技術“匡正”的失效和無力。

  “我們所體驗到的那種無能為力并不是個人失敗的標志,而是反映出我們的制度無能為力。我們需要重構我們曾經(jīng)有過的這些制度,或者建立新的制度。”面向未來時代的制度構成,應以人工智能的技術發(fā)展與規(guī)制為主題,形成包含法律規(guī)則、政策規(guī)定和倫理規(guī)范的社會治理體系。關于理念、規(guī)范、體制與機制的制度設計,筆者擬提出如下構想:

  (一)以安全為核心的多元價值目標

  人工智能法律的價值分析,源于法律理想與現(xiàn)實,應然與實然的對立。人工智能時代的法價值即是人類法律理想價值觀的追求,是價值這一哲學范疇的法律化表現(xiàn)。法律的理想價值總是高于法律現(xiàn)實價值,可以為法律制度的演進提供目標指引和持續(xù)動力。

  人工智能法律既具有一般法價值的構成要素,又有著其特殊法的價值內(nèi)容,從而形成自身的法價值體系。其中,“正義是社會制度的首要價值”,也是作為一般法的普適價值,其蘊含的人格正義、分配正義、秩序正義構成了人工智能法律構建的正當性基礎。在最高法價值指引之下,人工智能法律還存在著專門法的特別價值,這主要是安全、創(chuàng)新和和諧。

  安全是人工智能時代的核心法價值。安全價值是對整個社會秩序穩(wěn)定的維護。對此,法哲學家雷加森斯·西克斯言道:“如果法律秩序不代表一種安全的秩序,那么就不是一種法律” 。安全價值是許多法律部門共同追求的目標,且通過不同的制度或調(diào)整方法來實現(xiàn)。例如,刑法、行政法通過刑事責任或行政責任方式來實現(xiàn)社會秩序安全,民法通過侵權法來保護交易安全和財產(chǎn)秩序。人工智能作為未來時代技術尚在深入發(fā)展之中,但在當下已引發(fā)人們對其安全問題的普遍擔憂。

  人工智能超越人類智能的可能性,人工智能產(chǎn)生危害后果的嚴重性,以及人工智能技術本身內(nèi)在的不確定性,這些因素足以構成法律以及其他規(guī)范防止風險的必要性。關于風險規(guī)制的安全規(guī)范,包括人工智能產(chǎn)品的倫理規(guī)范、人工智能技術的應用規(guī)范、人工智能安全的監(jiān)測規(guī)范等,都是相關法律制度設計和安排需要考量的問題。

  創(chuàng)新是人工智能法律的價值靈魂。在特定的時代背景下,特定的法律制度會包含若干不同的價值項,而且其各自的價值側重點也有著不同。當代經(jīng)濟的發(fā)展著重依靠知識和信息的生產(chǎn)、分配和利用,創(chuàng)新業(yè)已成為知識經(jīng)濟時代的主要特征。面向人工智能革命,創(chuàng)新不僅反映了人與自然的關系,而且反映了人與人的關系、個人與社會的關系,成為一個具有普遍意義的關系范疇。創(chuàng)新價值體現(xiàn)在人工智能發(fā)展政策制定與立法活動之中,其主要制度設計是:

  1.謀化國家發(fā)展戰(zhàn)略。在整體性、全局性的政策層面,對人工智能技術和相關社會變革作出相應的戰(zhàn)略部署;

  2.制定產(chǎn)業(yè)促進與監(jiān)管的政策法律。在立法和政策層面,推進智能駕駛系統(tǒng)、智能機器人、精確醫(yī)療、語言識別、人腦芯片等核心技術的研發(fā)和應用,同時明確準入規(guī)范,制定安全標準,完善配套設施,營造健康、有序的監(jiān)管環(huán)境;

  3.完善知識產(chǎn)權創(chuàng)新激勵機制。通過權利保護、權利交易和權利限制等制度,促進技術創(chuàng)新和新興產(chǎn)業(yè)發(fā)展??偟谜f來,國家通過戰(zhàn)略指引、法律規(guī)范和政策安排,將創(chuàng)新這一行為上升為“規(guī)劃理性”的法價值,體現(xiàn)了人在價值發(fā)現(xiàn)中的能動性干預和控制。

  和諧是人工智能時代的終極價值追求。所謂和諧發(fā)展,是一種配合適當、協(xié)調(diào)有序的理想動態(tài),這是一種涵蓋周延的目標系統(tǒng),包括人的和諧、社會的和諧、自然的和諧,以及人與社會、自然的和平共存與進步。和諧價值實現(xiàn)的理想狀態(tài),即是人工智能社會的良性健康和有序。

  在智能機器人的發(fā)展過程中,和諧價值具有引導性功能。為保證人類社會的和諧穩(wěn)定,對人工智能產(chǎn)品進行倫理設計、限制人工智能技術應用范圍、控制人工智能的自主程度和智能水平等,都應以和諧價值作為指引方向和評價準則。

  (二)以倫理為先導的社會規(guī)范調(diào)控體系

  人工智能時代的文明,需要相應的行為規(guī)范作為社會關系的調(diào)整器。就整體而言,文明要求社會對自身內(nèi)部錯綜復雜的關系進行自覺的協(xié)調(diào),以不斷完善自身的組織和管理,達到各種社會關系的有序與和諧。

  從人類文明創(chuàng)始到現(xiàn)今人工智能時代開啟,社會行為規(guī)范已然成為一種制度體系。社會規(guī)范調(diào)控體系或系統(tǒng),是指在一定的國家、地區(qū)、領域內(nèi)存在的,由一定的社會經(jīng)濟關系所決定的社會規(guī)范而構成的相互聯(lián)系、相互制約的統(tǒng)一體。在社會規(guī)范體系中,法律與道德作為兩種重要的調(diào)整手段,從不同方面、以不同方式、通過不同機制對社會生活的不同領域發(fā)揮不同的影響和作用。

  對于人工智能社會關系的調(diào)整,倫理規(guī)范具有一種先導性的作用。這是因為法律規(guī)范基于現(xiàn)實生活而生成,且立法過程繁瑣,因而總是處于滯后境地;而倫理規(guī)范可以先行和預設,對已變化或可能變化的社會關系作出反映。

  在發(fā)達國家,對人工智能的倫理研究早于立法研究。近年來,歐洲機器人研究網(wǎng)絡(EURON)發(fā)布《機器人倫理學路線圖》,韓國工商能源部頒布《機器人倫理憲章》,日本組織專家團隊起草《下一代機器人安全問題指引方針》,美國國家科學基金會和美國航天局設立專項基金對“機器人倫理學”進行研究。

  此外,一些行業(yè)組織、公司企業(yè)也在倫理規(guī)范方面強化人工智能專家的專業(yè)責任。例如日本人工智能學會內(nèi)部設置了倫理委員會,谷歌設立了“人工智能研究倫理委員會”,旨在強調(diào)科研人員的社會責任,并對合理研發(fā)人工智能提供指導。

  概言之,倫理規(guī)范的調(diào)整功能非常獨到且為重要,例如:對智能機器人預設道德準則,為人工智能產(chǎn)品本身進行倫理指引;規(guī)定人工智能技術研發(fā)及應用的道德標準,對科研人員進行倫理約束。上述倫理規(guī)范,為后續(xù)法治建設提供了重要法源,即在一定時候,倫理規(guī)范亦可轉化為法律規(guī)范,實現(xiàn)道德的法律化。

  (三)以技術和法律為主導的風險控制機制

  人工智能技術不僅是高技術,而且是高技術的核心,可稱之為高技術核。智能技術的“核爆炸”,既對社會經(jīng)濟帶來變革性的影響,也會產(chǎn)生技術性風險,即“人類在利用技術時違背技術自身規(guī)律而產(chǎn)生的社會風險”。人工智能時代的風險防范和治理,可采取技術控制與法律控制的綜合治理機制。

  法律控制是風險治理機制的重要手段。立法者必須重視控制風險功能的法治化。例如,專利法具有激勵科技創(chuàng)新的制度功能,其授權客體的擴充及其權益保護,即是激勵人工智能發(fā)展機制的法律表現(xiàn)。與此同時,專利法也要注重權利客體的排除領域,以及禁止權利濫用,限制權利行使等制度規(guī)則的適用,限制和排除人工智能的潛在危害。此外,還應輔之于相關科技法律、法規(guī),對人工智能的研發(fā)、使用和傳播建立限制機制、禁止機制以及懲戒機制。

  技術控制是風險治理機制的重要措施。技術規(guī)制表現(xiàn)為法律規(guī)范、政策規(guī)定和倫理規(guī)則等。風險社會理論指引下的技術規(guī)則有以下特點:風險規(guī)避的主要路徑,是事先預防而不是事后補救(即從技術研究開始規(guī)制,以預防技術產(chǎn)生的負面效應或副作用);風險規(guī)避的基礎范式,是從技術研發(fā)到應用過程的責任制度(包括社會道義責任、科學倫理責任和法責任);風險規(guī)避的重要措施,是奉行技術民主原則(包括技術信息適度公開和公眾參與、公眾決策)。

  防范人工智能的技術性風險,不僅涉及強化法律規(guī)制的傳統(tǒng)制度改造,而且要求建立以社會監(jiān)管為重要內(nèi)容的政策體系,同時形成以全面理性(包括社會理性和科學理性)為基本內(nèi)涵的風險控制機制。

  中國正在走向人工智能時代。世界新一輪科學革命、產(chǎn)業(yè)變革與我國轉變經(jīng)濟發(fā)展方式形成歷史性交匯。對人工智能的發(fā)展和規(guī)制進行制度安排,是時代新潮流,也是國際大趨勢,更是本土創(chuàng)新發(fā)展的內(nèi)在要求。筆者認為,在制度構建方面,目前有三項重點任務:

  一是盡快出臺國家發(fā)展戰(zhàn)略,以此作為人工智能政策體系的支撐。從國際層面看,美、德、英、日等國加快人工智能頂層戰(zhàn)略設計,從國家層面統(tǒng)籌人工智能發(fā)展。在我國,《“十三五”國家科技創(chuàng)新規(guī)劃》和《“十三五”國家戰(zhàn)略性新興產(chǎn)業(yè)發(fā)展規(guī)劃》,對人工智能發(fā)展做出重要表述。但總體而言,我國人工智能政策還沒有上升到國家戰(zhàn)略高度,人工智能的戰(zhàn)略地位凸顯不足,人工智能發(fā)展的統(tǒng)籌協(xié)調(diào)部門未予明確,政府、社會以及企業(yè)的責任分工尚未厘清。

  國家發(fā)展戰(zhàn)略應是關于人工智能問題的整體性謀略和全局性安排,它是一個涉及戰(zhàn)略目標、戰(zhàn)略任務、戰(zhàn)略措施的政策制度體系。中國必須高度關注智能革命發(fā)展前景以及引發(fā)的相關社會變革,盡快作出相應的戰(zhàn)略政策部署;

  二是及時制定《機器人倫理章程》,以此作為人工智能研發(fā)、應用的道德基礎。在一些發(fā)達國家,對人工智能的倫理研究早于法律研究,諸如《機器人倫理憲章》、《機器人倫理學路線圖》等,都是將安全評估和風險防范作為人工智能倫理規(guī)范的重要內(nèi)容。

  我國似可組織政治家、科學家、企業(yè)家、法學家參加的專家小組,編寫機器人倫理章程,構建人工智能倫理規(guī)范,其要義包括:設計倫理框架,為機器人預設道德準則;強化科技專家的社會責任,為人工智能研發(fā)、應用提供道德指引;引導公眾接納人工智能,為調(diào)整人—機關系規(guī)定道德模式;

  三是適時進行機器人專門立法,以此作為人工智能法律的基本規(guī)范。人工智能技術對傳統(tǒng)法律制度帶來巨大挑戰(zhàn),以至現(xiàn)有的法律理念與規(guī)則在“高技術核”面前幾乎無所適從。在這種情況下,法律制度需要創(chuàng)新變革自不待言,而尋求一個調(diào)整人類與智能機器相互關系的專門法將是一個最終的選擇。

  對此,歐盟的立法行動最快。據(jù)報道,歐洲議會已正式向委員會提出議案,擬制定“人類與人工智能/機器人互動的全面規(guī)則”,這或將是首個涉及機器人的立法草案。我國在人工智能領域發(fā)展相對滯后,但相關立法活動應未雨綢繆,組建專家團隊對機器人專門法律開展研究,其重點包括:人工智能的法律地位、人工智能生成內(nèi)容的權利歸屬、人工智能損害后果的責任分擔、人工智能風險的法律控制等。

  結語

  未來時代已經(jīng)到來。這是一個創(chuàng)新的時代,創(chuàng)新不僅反映了人與自然的關系,而且反映了人與人的關系、個人與社會的關系,已成為一個具有普遍意義的關系范疇。人們在生產(chǎn)力、生產(chǎn)關系和上層建筑所有領域中進行的創(chuàng)造性活動,即技術進步和制度變革都是一種創(chuàng)新過程。智能革命引發(fā)的法律、政策和倫理話題剛剛開始,伴隨人類社會的知識創(chuàng)新,我們需要跟進理論創(chuàng)新和制度創(chuàng)新。法學家和法律改革家們需要秉持理性主義精神,去發(fā)現(xiàn)和探索一個理想的法律制度體系。我們有理由相信,科學技術的智慧之光與法律制度的理性之光,將在人工智能時代交相輝映。

?

  本文原題為《人工智能時代的制度安排與法律規(guī)制》,文章首發(fā)于《法律科學》2017年第5期,為閱讀方便,刪去腳注。

全文
搜索

關注
微信

關注官方微信

關注
微博

關注官方微博

網(wǎng)絡
信箱