您好, 訪客   登錄/注冊

人工智能場景下公共行政技術責任審視

來源:用戶上傳      作者:

  〔摘要〕 當前,人工智能的廣泛嵌入引發了公共行政技術責任問題??蓮募夹g責任的負載主體(誰負責任)、負載對象(向誰負責)、具體樣態(負何責任)和落實策略(如何負責)四個維度出發,建構人工智能場景下公共行政技術責任體系。從公共行政的性質看,人工智能場景下公共行政技術責任的負載主體仍是政府及其公務人員,負有“應用者”和“治理者”的雙重責任,以確?!叭祟悾ü姡┎皇芮趾Α睘楦灸康?。政府和公務人員應樹立居安思危的責任意識、完善技術責任的相關制度以及運用“商談倫理”的原則化解沖突,以確保人工智能場景下公共行政技術責任得以落實。
  〔關鍵詞〕 人工智能,技術責任,責任倫理,政府治理
  〔中圖分類號〕D630     〔文獻標識碼〕A 〔文章編號〕1004-4175(2019)03-0088-07
  人工智能作為新一代信息技術中的代表性技術,其觸角已經深入人類社會生活的方方面面。隨著“智慧政府”倡議的提出,以弱人工智能和強人工智能 ① 為主的新一代信息技術正在加速嵌入公共行政的各個環節,在政府內部辦公、在線智能客服、信息搜索、身份認證等政務服務場景中已隨處可見人工智能的身影,其在許多方面已經展現出了超越人類和替代人類的技術能力,極大地提升了政府治理能力和治理水平,但同時也給政府行政實踐帶來了多種倫理風險和困境,涉及個人隱私、安全與責任、算法歧視和失業問題等方面。其中安全與責任問題最為關鍵,這是由于人工智能自身具有很強的自主進化和自主決策能力,使得由人工智能所引發的安全與責任問題已經超出了傳統基于人類行為所設計的行政責任體系的解釋范圍。例如,面對一些由人工智能程序漏洞造成的公眾隱私泄露、精神損害以及公共財產損失等問題,到底是由政府還是由企業、技術開發者乃至人工智能自身承擔責任?對此問題的回答尚處于爭論階段。隨著政府公共行政過程中人工智能嵌入的不斷加深和擴展,這種責任主體模糊、責任追究困難的尷尬爭論可能會越來越多,越來越突出。因此,盡快設計出合理的適用規則和方案,有效應對和解決由人工智能應用所引發的責任問題,成為擺在學術界和政府面前的重要課題。鑒于此,本文結合強弱人工智能的技術特征和公共行政的內在屬性,構建了公共行政過程中人工智能技術應用和治理的整體責任框架,回答了誰負責任、向誰負責、負何責任以及如何負責的關鍵問題,以期為有效解決由人工智能應用所引發的倫理風險和責任問題提供借鑒。
  一、公共行政技術責任的概念及特征
 ?。ㄒ唬┕残姓夹g責任的概念界定
   學界較早地關注了公共行政技術責任問題。王美文認為:“技術責任也稱作為崗位責任,它是一種客觀責任,客觀責任來自外部要求,是由他人或組織對其完成組織目標,在現有的規章程序和法律框架內的一種外在壓力性任務?!?〔1 〕她將技術責任納入行政責任領域進行討論,認為其表現為一種技術性責任,具體包括制度、程序和崗位設計等操作層面,并沒有關注技術本身。然而,脫離技術本身談技術責任是不全面的。隨著公共行政過程中技術權重的逐漸加大,離開技術支撐的公共行政幾乎是難以想象的,有學者開始注意到這一點,對公共行政技術責任作了進一步界定。朱迪儉運用屬加種差法和發生定義法對公共行政“技術責任”一詞進行了較為詳細的梳理和界定,他認為,“技術責任就是行政組織及其工作人員為了提高政府能力和行政績效,遵照一定條件及時應用技術,以及按照一定標準、程序和方法明確責任,履行責任并進行責任評價,即技術應用的責任和技術性責任” 〔2 〕。他將“技術責任”中的技術應用責任和技術性責任的雙重屬性進行了統一,使得“技術責任”的概念譜系逐漸明朗。綜合上述研究,結合公共行政的內在屬性,我們認為,人工智能場景下公共行政技術責任是集應用責任和治理責任于一體的。從應用者角度看,公共行政技術責任是指公共行政組織及其工作人員在應用弱人工智能和強人工智能時,對其所帶來的消極后果所承擔的義務;從治理者的角度看,公共行政技術責任主要表現為一種治理責任,是行政組織作為治理主體應當對人工智能的發展、應用和規制承擔的相應治理義務。我們在參考上述學者研究的基礎上,重新編制了公共行政技術責任的概念譜系(見圖1)。
   (二)公共行政技術責任的特征
   公共行政論域中的技術責任同企業管理領域、工程管理領域、科技管理領域以及其他具體行業的技術責任有著本質上的差異,為了更好地凸顯公共行政技術責任的特殊性,也為了區別于其他領域的技術責任,我們有必要對其主要特征進行進一步的分析和闡釋。
   其一,政治性。政治性是公共行政技術責任的本質特征。從公共行政的屬性看,公共行政本質上是國家政治上層建筑的一部分,這也就決定了公共行政脫離不了其自身的政治屬性。張國慶認為:“公共行政的本質沒有改變,基本功能沒有改變。作為國家上層建筑的一部分,只有在國家的作用逐漸弱化,以至開始消亡的時候,政府(公共行政)的作用才會隨之弱化以至逐漸消亡?!?〔3 〕4可見,政治性天生植根于公共行政技術責任機體內;此外,從建設責任政府的訴求看,技術責任是建設責任政府的內在要求。張成福在其《責任政府論》中就將“行政責任”列為責任政府建設的重要維度,同時從概念譜系看,重視對公共行政技術責任的關注和落實也是完善行政責任內容結構,推進責任政府建設的重要內容。
   其二,應用性。應用性特征取決于公共行政技術責任承擔主體和自身屬性。一方面,從公共行政技術責任主體的屬性看,技術責任的承載主體是多樣的,具體可分為技術發明者和技術應用者,公共行政技術責任主體是由政府組織和公務員個體構成,而政府組織和公務員個人并不從事任何技術發明,更多地是以技術應用者的角色出現;另一方面,從技術責任自身的屬性看,公共行政技術責任是集技術應用責任和技術性責任的雙重構成。就具體的技術應用而言,當前互聯網、大數據、云計算和人工智能等新技術逐漸在公共行政中廣泛應用,在具體的公共行政實踐活動中扮演著重要的角色,而這些實踐活動本身就自帶應用屬性。    其三,多樣性。公共行政技術責任的多樣性來自于技術本身,當我們把“技術”一詞具象化,技術的現實樣態就是豐富多彩的,諸如網絡技術、核電技術、汽車技術、數據技術和人工智能技術等等。隨著社會生產力的發展,新的技術就會不斷出現,中國古代的四大發明改變了世界,而現代社會的第一、二、三次工業革命,直至現在的信息革命和智能革命交疊的時代,所產生的新技術更是豐富多樣。因此,當我們聚焦技術本身考慮其應用所帶來的責任時,相應的責任也就呈現出多樣性特征。此外,當談及責任時,就離不開應負何責的問題,這個時候責任的劃定,就應基于一定的社會規范之上。只有當社會整體上認為某項技術的應用帶來了一定的社會危害,或者破壞了人類某種既定的共識和規范,此時才會存在“負責”一說,而這種共識和規范伴隨著社會的發展越來越多,越來越全,涉及社會生活的方方面面。因此,以是否違背社會規范為標準而言,技術責任應該是多樣的。
   其四,歷史性。技術責任為何具有歷史性?同人類歷史一樣,技術發展所留下的足跡,可以稱之為技術歷史。雖然未來技術的走向是難以預測和準確預知的,但是我們反觀技術的發展歷史,就不難理解技術責任的歷史性了。正如杜寶貴指出的那樣:“技術責任的發展是根植于特定的社會歷史階段的,在不同的社會歷史階段,‘技術責任’就表現出不同的歷史形態;不同的技術發展模式,‘技術責任’的特征也就不盡一致。” 〔4 〕31當前,技術的進步和發展進入了前所未有的繁榮時期,人工智能技術的成熟和發展勢必推動人類社會邁向智能時代,技術已經不僅僅是從屬于人類的輔助工具了,按強人工智能和超人工智能所預設的場景,未來的人工智能可能是具備意識和自主性的“個體”,那個時候再討論技術責任,可能又是另一番標準。
   二、人工智能場景下公共行政技術責任的理性審視
   從政府公共行政過程中技術應用的歷史來看,我國政府的技術形態是多樣的,先后經歷了電子政府、網絡政府、數據政府等多種形態,都是在一定的技術支撐下所形成的。當前,隨著人工智能在政府公共行政過程中的不斷深入應用,政府正在朝著一種集精細化、互聯化、智能化于一體的智慧形態發展即智慧政府,它以人工智能技術為核心主體。由于公共行政中的各個環節都離不開人工智能的身影,相應地也帶來了公共行政技術責任問題,具體涉及誰負責任、向誰負責、負何責任以及如何負責(“如何負責”將在第三部分闡述)的問題(詳見圖2)。
 ?。ㄒ唬┱l負責任:具有“主體性”的人工智能體能否擔責?
   如果僅從行政責任的視角來探究公共行政技術責任主體的話,似乎是一項多余的工作,因為基本可以確定,公共行政技術責任主體應當由政府及其公務人員構成,這一點由大多數相關文獻和教科書的介紹也可以得到支持和證實(如張國慶的《公共行政學》、夏書章的《行政管理學》及李志平的《地方政府責任倫理研究》)。我們這里聚焦的是,當大家都在驚呼人工智能將要替代人類的時候,我們可曾想過,人工智能能否像人一樣成為擔責的主體呢?這個問題對于政府來說異常重要。美國電氣和電子工程師協會在《人工智能設計的倫理準則》(2017年第2版)中就指出,要“確保他們的設計者和操作者負責任且可問責”。然而,從人工智能技術正在廣泛嵌入公共行政的具體實踐場景看,在“奇點”理論(這里主要指電腦智能與人腦智能兼容的那個神妙時刻)的支撐下,人工智能“主體性”地位的獲得成為可能,并使得公共行政技術責任的負載主體逐漸變得模糊起來,引發了學界對具有“主體性”的人工智能能否成為擔責主體的疑問,這也就成為審視公共行政技術責任所必須解決的關鍵問題。對于人工智能體的“主體性”而言,學者們或樂觀或悲觀,但是無論對人工智能的這種“主體性”抱有何種態度,不少學者似乎對這種“主體性”的存在都深信不疑。以溫納和呂埃爾為代表的技術哲學家們就認為現代技術具有了自主性,并指出這種自主性根源于技術的“逆向適應” ②,而人工智能技術則進一步強化了現代技術的這種自主性,使得“機器的智能化讓機器獲得了一定的主體地位,獲得了某種‘類人性’,人與機器的關系從主從關系變成了主體之間的共處關系” 〔5 〕。從技術發展的規律來看,人工智能獲得“主體地位”似乎不可逆轉。
   那么,具有“主體性”的人工智能體能否像人類一樣擔負起它們應當擔負的責任呢?從計算機倫理學創始人摩爾(James H.Moor)那里可以得到一定的啟發,他將機器人分為四類:(1)有倫理影響的智能體;(2)隱含的倫理智能體;(3)明確的倫理智能體;(4)完全的倫理智能體 〔6 〕。這種劃分思路的背后所暗含的邏輯是,智能體在不同的發展階段,其價值和倫理的影響力是不同的,可以理解為不同階段的智能體,其“主體性”也有強弱之分。依據這種思路,反觀當下人工智能所處的發展階段,基本可以斷定現階段的人工智能體大多屬于“有倫理影響的智能體”,尚不具備完全的“主體性”,正如段偉文所指出的那樣:“目前人工智能體所呈現的‘主體性’是功能性的模仿而非基于有意識的能動性、自我意識與自我意志,故應稱之為擬主體性……智能體的價值與倫理影響力迄今是無法獨立地主動施加的。” 〔7 〕這些論述充分說明,現階段的人工智能體尚不具備同人類同等的“主體性”,目前的人工智能大致處于弱人工智能和強人工智能并存的階段 〔8 〕28-52。我們可以判斷,現階段的人工智能體并不具備像人類一樣對自身行為完全負責的主體地位,反而應該將其置于人類的責任體系之下,每一個人工智能體都應該有相應的責任人或機構,這一判斷在很長一段時間內應當是不會改變的。當然,隨著技術進化到超人工智能階段,這一判斷能否繼續成立是不好斷定的。
   (二)向誰負責:“絕對不可拿整個人類的存在去冒險”
   漢斯·約納斯(Hans Jonas)、漢斯·昆(Hans Kung)、喬爾·費因伯格(Joel Feinberg)、漢斯·倫克(Hans Lenk)等人在建立責任倫理學的過程中,就給其確立了一個根本原則即“絕對不可拿整個人類的存在去冒險” 〔9 〕16。從技術責任的概念譜系來看,這一原則同樣適用于分析公共行政技術責任的負載對象,我們要做的就是將這個根本原則所指稱的“人類的存在”具體化和對象化。探究公共行政技術責任,必然繞不開“公共行政”這一限定語,要將技術責任的分析場景置于現實的公共行政實踐過程當中,以及人工智能的具體應用場景之中。從公共行政的價值歸宿來看,一方面,無外乎對公共利益的追求,確保公眾的利益不受侵害,維持公共秩序;另一方面,確保政府自身的合法性地位以及公信力不受損害。由此可見,公共行政技術責任的負載對象也應當由公眾和政府自身兩部分構成。目前,人工智能的責任倫理規約在確保公眾利益上所作出的努力是有目共睹的,由中國電子技術標準化研究院發布的《人工智能標準化白皮書》(2018)就明確指出,“對個人數據管理應該采取延伸式保護,保護公眾隱私”;《人工智能設計的倫理準則》中提出的首要原則就是“確保他們不侵犯國際公認的人權”;“阿西莫夫法則”(Isaac Asimov)認為人類高于機器人, “第一條,機器人不得傷害人類個體,不能目睹人類受到傷害而不干預;第二條,機器人必須服從人類的命令,命令與第一條沖突除外;第三條,機器人在不違反第一條、第二條原則的情況下,要保護自身安全” 〔10 〕15。從目前對人工智能責任倫理的設計來看,涉及人的隱私、人權以及個體的生物性,核心仍然是確?!叭祟惒皇芮趾Α保梢?,人工智能場景下公共行政技術責任的首要負載對象應當是公眾。    此外,人工智能體的應用除了作用于政府公共行政的“外部顧客”,同時也對政府組織內部肌體有著重要的影響??梢钥隙ǖ氖?,未來的政府內部將隨處可見人工智能的身影,未來的政府也會朝著一種智慧的形態邁進。然而,在大規模建設智能政府和智慧政府的同時,有兩個方面的問題不能忽視:一方面,由人工智能應用所引發的諸如公民個人隱私泄露、信息安全失控等問題,如何定責和歸責到行政個體或者政府組織自身;另一方面,在政府組織內部將會出現人工智能體所帶來的“替代效應”和“擠壓效應”,大規模人工智能體的應用一定程度上也會帶來智能體對人類工作的“替代”,同時也會“擠壓”原本屬于人類的生活空間,引發政府組織內部系統的人員“失業”和“分流”等實際問題。因此,在公共行政過程中引入人工智能也應該充分考慮和顧及其對組織內部的“負效應”。當然,這在一定意義上仍然沒有超出對“人類的存在”的責任負載范疇。
   (三)負何責任:兼具“應用性”和“技術性”雙重屬性
   責任的本質屬性內在地決定了責任的具體樣態,人工智能場景下公共行政技術責任兼具“應用性”和“技術性”雙重屬性。那么,技術責任的這種“應用性”屬性是如何產生的呢?這種“應用性”屬性內嵌于人工智能應用的整個過程,由于任何技術的應用都存在“技術失控”的可能,會帶來相應的責任問題,葉立國從科學技術理論、科學技術功能、科學技術研究以及科學家與科技成果使用者主觀意志四個維度論證了科學技術的不確定性 〔11 〕,這種不確定性在一定程度上可以理解為技術是失控的。這也充分說明,應用者(使用者)是造成技術失控風險的因素之一,這一點在馬克思的技術思想中也能夠獲得支持。馬克思認為,技術本身并不具有善惡之分,而是取決于應用者(操控者)的價值取向, “一個毫無疑問的事實——機器本身對于把工人從生活資料中‘游離’出來是沒有責任的……這些矛盾和對抗不是機器本身產生的,而是機器的資本主義應用產生的!” 〔12 〕483顯然,技術本身并不具有責任屬性,而現階段的人工智能體自身同樣是沒有責任的,其在公共行政中的應用所帶來的一切后果并不能歸咎于人工智能本身,只能從技術應用者(政府和公務人員)那里得到答案。此外,技術責任又是“技術性”的,因為技術責任不僅僅在于需要恰當地抑制技術的“惡”,同時還需要最大限度地闡揚技術的“善”。如果說抑制技術的“惡”是技術責任內在要求的話,那么闡揚技術的“善”則可以認為是技術責任內涵的延伸,責任主體則是一種治理者角色。按照韋伯對官僚制的設計,“技術性”表現為一種規則、方法和程序,具體到技術責任的技術性,可以視為一種集定責、履責和問責于一體的系統過程??傊?,人工智能場景下公共行政技術責任應該由技術應用責任(應用者)和技術性責任(治理者)兩個維度構成。
  那么,這種責任的具體樣態是怎樣的呢?從“應用性”屬性看,人工智能嵌入下的政府正在走向智慧形態,具體包括智能辦公、智能監管、智能服務和智能決策四個大的應用領域。相應地,技術責任存在兩種樣態:(1)業務責任。在智能辦公、智能服務和智能決策場景下,傳統的咨詢服務、信息搜索與獲取、表單填寫、取號打印、申報領證等業務可以完全通過人工智能技術實現自動化、智能化。然而,目前最成熟的語音識別、圖像識別、智能交通系統以及智能決策系統等人工智能技術都無法確保完全準確,這種極小概率發生的失誤,所帶來的責任應當劃歸于公務員個人的業務責任體系之下。(2)安全(監管)責任。具體表現為數據安全責任和隱私安全責任。一方面,政府作為公眾數據的合法擁有者和使用者,由智能系統漏洞、黑客攻擊等因素造成的公眾個人數據和個人隱私泄露的責任同樣應該劃歸為政府責任體系之下。從“技術性”屬性看,技術責任表現為一種集定責、履責和問責于一體的系統過程,其中包括人工智能應用的相關制度設計責任、危機應對責任、行為選擇責任和價值倡導責任導四個層面。
   三、人工智能場景下公共行政技術責任的審慎應對
  人工智能場景下公共行政技術責任的本質就在于抑制技術的“惡”、闡揚技術的“善”。政府和公務人員作為技術責任的負載主體,必須從意識、制度和行為三個層面思考如何實現責任的落實。
   (一)居安思危謀長遠:約納斯的“憂懼啟迪法”
   責任意識的樹立是技術責任落實的前提。人工智能的時代潮流已經不可逆轉,人工智能會越來越廣泛地嵌入政府治理的各個環節,作為集“應用者”和“治理者”雙重角色于一體的政府,如何抑制技術的“惡”、闡揚技術的“善”則成為政府最根本的技術責任,而這種責任的實現有賴于政府主體自身所具有的后果意識和防范意識,因為,“在智慧治理的過程中,人的主體意識的增強,無疑有助于防止技術對人的僭越、技術理性對價值理性的僭越,從而走出數字技術對人性的扭曲,把人當作目的而不僅是手段,實現人之為人的自由和尊嚴” 〔13 〕。對于如何培養這種后果意識和防范意識,進而實現這種責任,漢斯·約納斯(Hans Jonas)的責任倫理學似乎給出了一種可行方案,可概括為“憂懼啟迪法”,他認為應該積極地預測技術的善惡,且惡的預測比善更重要,他將原因歸于,邪惡“更加生動具體,更加具有緊迫感,在觀念和區位上也更少不同,最重要的是,無需我們尋找,它自己就會跳出來。邪惡僅僅通過它的存在就能使我們察覺到,而善良總是默默地存在著,并不為人知……我不相信人們沒有哪怕至少見識過疾病就贊美健康的,沒有經歷過欺詐就贊揚真誠的,沒體會到戰爭的災難就謳歌和平的。我們對自己不想要的比想要的知道得要快得多。所以道德哲學應該先于我們的希望考慮我們的恐懼,以了解我們真正渴望什么” 〔14 〕。這是一種“居安思?!钡呢熑谓嬎悸?,啟示政府乃至組織成員從長遠的角度來看待人工智能技術的發展和應用,避免過分沉迷于人工智能技術所帶來的便利,而忽視其“為惡”的可能,激發我們樹立憂患意識,以一種負責任的態度來修正政府的行政行為,為人類社會的可持續發展承擔應有的責任。同樣的邏輯,人工智能場景下公共行政技術責任的落實,首要之策就在于樹立居安思危的責任意識,謹慎地對待和應用人工智能技術,時刻以一種“負責任”的態度來應用和監管人工智能,建構起公共行政技術責任倫理規范。    (二)建章立制樹規則:發揮制度對人類行為的規范作用
   制度建設對于技術責任的落實可起到根本性的作用。2017年發布的《新一代人工智能發展規劃》明確指出,要開展與人工智能應用相關的民事與刑事責任確認、隱私和產權保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等??梢?,人工智能技術所帶來的法律、刑事、隱私以及財產保護等多個方面的責任問題開始受到重視。在公共行政領域,人工智能作為一種新興的技術形態,正在廣泛應用到政府內部管理、政務服務以及公共事務管理等各個環節,未來這種應用的程度只會更加深入,勢必會給傳統的公共行政責任體系帶來沖擊和挑戰,尤以技術責任為首要。因此,針對人工智能應用可能帶來的相關責任問題,作為集“應用者”和“治理者”雙重角色于一體的政府,必須積極開展相關論證和制度設計,盡快形成得到大家共同遵守的辦事規程和行動準則,為人工智能場景下公共行政技術責任的定責、履責和追責環節提供依據和保障。
   具體來說,可在整合傳統公共行政責任體系的基礎上,重新設計技術責任認定的相關標準,輔以配套的法律、法規,修正責任的內部構成要件。目前,在人工智能最成熟的“自動駕駛”領域,就遭遇了責任區分和責任認定的棘手問題,我們可以試想,當公共行政中的政務服務、內部管理等環節也進化到這種“無人化”場景時,是否會遭遇同樣的責任困境?相應地,作為“治理者”的政府,又如何協調公共事務管理過程中的這種“棘手問題”?這就需要政府從頂層設計的角度出發,重構公共行政責任體系和制度體系。此外,盡快建立第三方責任評估機構。瓦爾波斯在研究前瞻性技術責任倫理的時候,就特別強調了對技術的評估和評價問題,人工智能技術所引發的技術責任同樣面臨評估和評價問題。然而,由于人工智能是由諸如信息技術、算法技術以及數據技術等諸多復雜的技術構成,其自身的技術復雜性決定了政府乃至個人不可能準確預估其未來的技術走向、技術風險以及技術責任等問題,因此要確保公共行政技術責任的落實,就離不開作為輔助角色存在的第三方評估機構。
   (三)積極協商化沖突:哈貝馬斯的“商談倫理”原則
   隨著人工智能的嶄露頭角,世界各國政府和相關組織團體在意識到其對經濟發展、社會進步、武器革新等諸多領域將會帶來重大發展契機的同時,也開始注意設計和頒布各種政策、法規和倫理準則來規范人工智能的發展和應用。就目前而言,政策的全面性和有效性遠遠不能適應人工智能技術的發展速度,在現有責任倫理和制度框架下,尚不能完全解決人工智能所引發的技術責任問題,許多現實問題仍然處于爭論階段,尚無定法。目前,較為通用的責任劃分原則是從利益相關者角度出發,建構起多元主體攜手合作、共同參與、責任分擔的應對體系,將責任分別歸結到生產者、銷售者和使用者身上。對政府而言,無論是針對“應用”還是“監管”所應負有的技術責任(諸如數據、隱私和人身等安全問題),各國政府都沒有形成一套完整、系統、科學的應對方案,許多具體問題的解決也是“邊走邊看”,使得許多由人工智能所引發的技術責任問題都進入了一種“現場協商”的狀態,這時候以應對科技時代的人類困境為出發點的“商談倫理”原則,則成為解決責任沖突和矛盾的可行方案和有效策略。方秋明認為:“技術責任是這樣通過商談實現的:一個愿意負責任的技術主體會認識到他(們)可能要作出影響他人的權利或利益的決定,那么在行動之前他(們)就不得不和他人商談?!?〔15 〕此外,要確保協商的順利實現,并得到滿意的結果,必須滿足哈貝馬斯所倡導的“兩個原則”和“三個準則”。當然,也有學者指出“商談倫理”的原則過于“理想主義”,對于實踐的指導作用較小。我們這里關注的是,它所傳遞的這種“協商”原則能夠為我們解決矛盾沖突提供一個很好的視角和啟發。政府在應對人工智能引發的技術責任的時候,也應該充分發揮“協商”手段,避免使用過于直接和生硬的方式。
   概言之,技術進步給政府治理帶來的機遇和挑戰是并存的,隨著以人工智能為代表的新技術嵌入政府治理的不斷深入,人工智能對政府治理的影響越來越廣、越來越深,也對傳統政府治理中的責任體系帶來了挑戰和沖擊。人工智能技術由于其所展現出的“替代人類”的技術走向,使得傳統圍繞人和實體組織(政府)所建構的責任體系存在面臨解構的風險,因此本文聚焦人工智能這一特定的技術場景,建構人工智能時代政府公共行政技術責任體系。從上述論證可以看出,就人工智能目前所處的發展階段來看(弱人工智能和強人工智能并存),傳統圍繞人和政府實體組織所建構的技術責任體系暫時不會出現根本上的重構,但是由于人工智能應用已經呈現出“無人化”的趨勢,對傳統公共行政技術責任的定責、問責和履責以及相關標準和程序等各個環節都帶來了一定的沖擊,迫使政府在相應的規則、制度和程序上必須作出一定的調整。當然,我們這里所進行的分析建立在強弱人工智能并存階段的技術場景之上,這并不足以讓我們完整地刻畫出人工智能場景下公共行政技術責任體系的立體圖像,因為按照技術專家的預測,進入超人工智能階段,人工智能是可以完全替代人類的,具備同人一樣的“智識”。那時,代替行政主體行使治理行為的人工智能體,是否具有完全的“責任屬性”呢?在這一點上,暫時不能給予確切的答案。正如有學者指出:“人工智能時代的到來,亦或是人類經受不住誘惑打開的潘多拉魔盒,亦或是新時期造福人類福祉的蒸汽機?!?〔16 〕因此,我們只有在人工智能技術不斷進化的同時,加強對其可能帶來的影響進行提前研判和前瞻性研究。
   注 釋:
 ?、佻斂他愄亍げ┑窃凇禔I:人工智能的本質與未來》一書中指出,人工智能大致經歷了兩個發展階段:弱人工智能和強人工智能。弱人工智能階段依靠單臺機器或小型局域網絡,只能完成簡單的程序和任務;強人工智能階段是依靠全球互聯網、大數據覆蓋、終端及云端協同運作,云存儲云計算同步開啟,已經具備接近人類的思考方式和處理復雜任務的能力。  ?、诩夹g能夠自我組織、自我決定,但過去的非智能機器只是因為機器缺乏智能,需要人類配合,而在配合機器的過程中,智慧的人被機器所牽制,例如為了機器不停歇,人不得不三班倒,技術的這種“逆向適應”讓其似乎獲得了某種自主性。
   參考文獻:
  〔1〕王美文.論技術責任與道德責任在行政責任中的統一性〔J〕.湖北大學學報(哲學社會科版),2005(01):41-44.
   〔2〕朱迪儉.公共行政中的“技術責任”〔J〕.理論探索,2015(04):93-98.
  〔3〕張國慶.公共行政學〔M〕.北京:北京大學出版社,2007.
  〔4〕杜寶貴.論技術責任主體的缺失與重構〔M〕.沈陽:東北大學出版社,2005.
  〔5〕黃欣榮.人工智能與人類未來〔J〕.新疆師范大學學報(哲學社會科學版),2018(04):101-108+2.
  〔6〕Moor J H . Four Kinds of Ethical Robots〔J〕. Philosophy Now, 2009(72):12-14.
  〔7〕段偉文.人工智能時代的價值審度與倫理調適〔J〕.中國人民大學學報,2017(06):98-108.
  〔8〕瑪格麗特·博登.AI:人工智能的本質與未來〔M〕.孫詩惠,譯.北京:中國人民大學出版社,2017.
  〔9〕Jonas H. The Imperative of Responsibility:In Search of an Ethics for the Technological Age〔M〕.Chicago :University of Chicago Press,1984.
  〔10〕詹姆斯·巴拉特.我們最后的發明:人工智能與人類時代的終結〔M〕.閭佳,譯.北京:電子工業出版社,2016.
  〔11〕葉立國.科學技術的四種不確定性及其風險規避路徑——基于約納斯“責任倫理”的考察〔J〕.中國石油大學學報(社會科學版),2018(02):78-82.
  〔12〕馬克思恩格斯全集:第23卷〔M〕.北京:人民出版社,1972.
  〔13〕郭 蓉.從技術理性到行政倫理——大數據時代智慧治理的倫理反思〔J〕.道德與文明,2018(06):17-23.
  〔14〕方秋明.漢斯·約納斯的責任倫理學研究〔D〕.上海:復旦大學,2004.
  〔15〕方秋明.論技術責任及其落實——走責任倫理與商談倫理之路〔J〕.科技進步與對策,2007(05):47-50.
  〔16〕姚志偉,沈 燚.論人工智能創造物的著作權歸屬〔J〕.湘潭大學學報(哲學社會科學版),2018(03):29-33.
  責任編輯 周 榮
轉載注明來源:http://www.hailuomaifang.com/4/view-14848595.htm

?
99久久国产综合精麻豆