您好, 訪客   登錄/注冊

智能思政倫理風險的生成邏輯、表現形式及防控機制

來源:用戶上傳      作者:米華全

  摘要:智能思政是人工智能與思想政治教育融合發展的新興事物,智能技術在為思想政治教育創設新場景、提供新手段的同時,其可能引發的倫理風險也需要引起人們的重視。智能思政倫理風險的生成是內生性邏輯、功能性邏輯和應用性邏輯共同作用的結果,主要表現在倫理關系失衡、倫理價值失序、倫理行為失當和倫理規范失控等方面。為確保智能思政健康發展,需要從價值引領機制、協同治理機制、法規約束機制、素養培育機制和監測評估機制等維度出發,做好智能思政倫理風險的整體性防控。
  關鍵詞:智能思政;倫理風險;生成邏輯;防控機制
  中圖分類號:G434 文獻標識碼:A
  本文系國家社科基金一般項目“‘數字黨建’驅動黨建工作現代化體系構建與實現路徑研究”(項目編號:22BDJ095)階段性研究成果。
  黨的二十大明確提出了“推進教育數字化”的要求,作為教育中關鍵一環的思想政治教育與人工智能等數字技術的融合也在不斷深化,并生成了智能思政這一思想政治教育新形態。所謂智能思政,是指人工智能時代的思想政治教育與人工智能、大數據等技術有機融合,衍生出的能夠推動思想政治教育過程、步驟、要素等智能化發展的思想政治教育新形態[1]。當智能技術為思想政治教育創設新場景、提供新手段的同時,其有限性和倫理邊界問題也引起了人們的關注和思考。由于智能技術的“雙刃劍”效應,智能思政面臨著教育主體弱化、“信息繭房”、算法歧視、隱私泄漏等技術、法律甚至道德層面的倫理風險問題。為促進智能技術賦能思想政治教育健康發展,需要將其置于倫理層面予以詮釋,廓清風險的生成機理、表現形式,提出有效的應對舉措。
  智能思政倫理風險是人工智能倫理風險在思想政治教育領域的特殊體現,它既承繼了人工智能的一般性倫理問題,又具有思想政治教育的特殊性。“人工智能倫理是包含一套價值觀、原則和技藝,并采用公認的對錯標準來指導人工智能技術開發和部署中的道德行為”[2]。其風險主要是指智能技術的研發與應用對人與人工智能體、人與人和人與自然的倫理關系帶來的不確定性倫理負效應,涉及從研究、設計、開發到配置和使用等各環節。智能思政是以大數據為驅動、以智能算法為內核、以思政應用為載體,其倫理風險也貫穿于其生命全周期,是內生性邏輯、功能性邏輯和應用性邏輯共同作用的結果。
 ?。ㄒ唬﹥壬赃壿嫞核惴ā昂谙洹奔皺C器學習的局限
  馬克思指出,科學技術有時也“表現為異己的、敵對的和統治的權力”[3]。機器學習、數據挖掘、算法“黑箱”等技術性根源是形成算法歧視、責任模糊等倫理風險的重要根源。一是智能算法的不可解釋性。智能思政應用根植于算法,而算法本質上是一系列復雜的代碼指令,難以轉化為可解釋、易理解的語言。這使得用戶不能清楚掌握算法目標和意圖,也會讓人難以理解和評估智能技術背后的決策邏輯和責任歸屬,讓算法猶如一個“黑箱”。算法“黑箱”不僅會引發責任倫理、算法偏見等問題,還會讓倫理風險評估和監督難以開展。二是機器學習蘊含強化偏見因子。在數據訓練中,智能思政算法會對特定學生群體給予優先或次要的對待,在信息推送、成績評價等方面進行不公正的自動化決策,形成算法歧視,強化甚至加劇系統性和結構性的偏見。通常情況下,算法歧視并非算法設計人員的有意識選擇,而是算法本身缺乏要素透明、程序透明和背景透明的無意識結果。三是智能算法具有不穩定性。智能思政涉及的學科眾多,智能思政背后所依存的算法道德需要相關系統的緊密配合。人工智能的機器學習技術嚴重依賴數據樣本和算法代碼,如果出現數據缺損、算法代碼出錯不僅不能保證智能思政系統的穩定性,而且極有可能誤導智能機器做出錯誤的決策。智能機器的錯誤決策將嚴重影響用戶畫像、信息推送等功能,帶來諸多的倫理風險問題。
 ?。ǘ┕δ苄赃壿嫞汗ぞ呃硇詫r值理性的僭越
  功能性根源主要是指因智能技術工具理性擴張而產生的風險問題。馬克思?韋伯將技術理性劃分為工具理性和r值理性,其中工具理性強調目標導向和效果的最大化,追求功能性、合理性和規范性,在一定程度上漠視人的精神價值和倫理道德;而價值理性強調動機價值的純正性和手段的正確性,追求技術發展和應用與人的價值理念和根本利益的契合。一方面,智能技術激發工具理性不斷張揚?!皞惱盹L險強調的是倫理、道德層面的風險與價值原則選擇的優先性問題”[4]。如果工具理性不受價值理性的約束,形成對價值理性的僭越,就極可能引發倫理風險問題。特別是在倫理規約還不夠完善的情況下,智能思政價值理性的優先性還缺乏有效的保障,對工具理性的規約功能有待加強。另一方面,價值理性對工具理性的統攝不足。智能思政不僅本身具有強烈的倫理觀念和道德規范屬性,而且也受到社會思想觀念、意識形態建設狀況等深刻影響,這與人工智能技術的工具理性之間存在較大的張力,如果協調不好容易造成倫理沖突,引發技術倫理風險問題。
  (三)應用性邏輯:主體能力和配套機制的欠缺
  智能思政倫理風險既具有客觀因素,也有主觀原因。如果說內生性邏輯、功能性邏輯是智能思政倫理風險生成的客觀因素,強調的是技術本身存在的不確定性與復雜性等客觀現實,那么主體自覺過程中對風險的認知心理、感知判斷等則是智能思政倫理風險生成的主觀元素[5]。智能思政實踐中,教師、學生和運維人員等應用主體對倫理風險的認知和應對能力的有限性,也是倫理風險生成的重要因素。目前,人工智能應用場景的拓展速度遠遠超出了人們的預期,其在思想政治教育領域的潛力也正不斷顯現。然而囿于思想認識、現實基礎的約束,教育教學相關主體對人工智能倫理風險認知和應對能力還存在不足。一方面,應用主體對人工智能技術的認識和理解能力還遠遠不夠。作為當前最前沿的技術之一,人工智能技術具有高度復雜性,涉及大數據、機器學習、深度學習、神經網絡和知識圖譜等各種技術,智能系統龐大的數據庫、復雜的算法模型常常超出人們的認知范疇,應用主體的認知水平和理解能力還不能有效應對算法本身的不確定性,也沒有辦法對倫理風險形成準確的判斷。另一方面,智能思政相關的法規體系、資源建設、保障機制等還比較滯后。當前人工智能嵌入思想政治教育還處于起步階段,在技術研發、數據共享、合作機制等方面還不完善,也缺少相應的規范和指引,缺乏技術成熟、應用面廣、功能完備、成效顯著的系統平臺。在倫理風險防范的思想認識不強,相關工作機制也較為欠缺,不能做到事先預警,防患于未然。


  意識形態屬性是思想政治教育的顯著屬性,人工智能應用導致的不僅僅是技術層面的倫理風險,它還可能對主流意識形態、教育價值和倫理體系等產生一系列潛在的、未知的風險問題。根據不同的視角或標準,風險的表現形式也呈現出不同的分類結果。具體而言,主要表現在倫理關系失衡、倫理價值失序、倫理行為失當和倫理規范失控等方面。
 ?。ㄒ唬﹤惱黻P系失衡風險:師生主體地位的消解與情感的遮蔽
  “技術一旦生成并被廣泛應用,就會依據其內在的結構和功能形成一種自主性力量”[6]。隨著人工智能技術自主性力量的膨脹,人本身的主體性就有可能被削弱。人工智能在思想政治教育領域的應用,把原本由教師和學生組織和實施的知識傳授活動交給智能機器,讓智能算法替人做決定,必將使思想政治教育主體失去自主性與判斷力。其一,教師和學生主體地位的消解?,F代思想政治教育觀點認為,思想政治教育是教育者和受教育者雙向互動的過程,教育者與受教育者均為教育的主體。在人工智能的沖擊下,無論是教師的主導地位,還是學生的主體地位都面臨著解構的風險。從教師維度看,教師是思想政治教育的主導者,掌握著教育的方向、內容和途徑方法。以算法賦能,智能思政應用可以承擔更多教師角色,如可以自動生成課件、批改作業、診斷學習障礙和進行能力測評等;而且,智能算法的賦權,還會打破傳統的教育模式和認同模式,激發和釋放受教育者的主體性,甚至形成受教育者主導信息生產和傳播的局面。受教育者主體地位的彰顯,極有可能消解教師的信息主導優勢,導致教師權威地位旁落。從學生維度看,學生的主體性主要體現為教育過程的參與和自我教育。雖然,智能算法有助于掌握受學生需求,并根據需求定制學習任務,進行信息推送,在一定意義上有助于彰顯學生的主體地位。但大量智能教學系統、學伴機器人和智能搜索引擎的應用,長期的信息“投喂”在無形中也會侵蝕學生獲取信息的主動性,導致信息渠道和信息內容的窄化,喪失接受更全面、更豐富信息的機會。對算法推薦的過度依賴,也容易產生思維和行為惰性,導致學生主體性被不斷解構。其二,師生情感關系的遮蔽和冷漠。情感遮蔽就是師生的情緒、感受被技術屏蔽,既覺察不到自己的情感,也覺察不到其他人的情感[7]。思政政治教育不僅是一項政治性實踐,也是一種情感養成。虛擬和現實深度的相融讓師生具身在線上線下不斷切換,導致人與人之間的地緣、業緣和類血緣關系面臨著解構的風險。一方面,智能思政中,師生之間的交互需要憑借數字化中介系統來開展,成為一種“人―機―人”的虛擬交互模式。虛擬交互使師生交往變得愈發間接,弱化師生人際交往和情感交流的主動性和有效性,阻礙師生之間最珍貴的情感交流和感情培育。另一方面,在智能思政系統中,師生在本質上成為以數據為基礎的虛擬仿真主體,成為算法視閾中“數字符號”,忽視了“現實的人”的情感需求,淡化了師生之間的關系紐帶,讓思想政治教育成為缺乏情感力量的信息傳播。
 ?。ǘ﹤惱韮r值失序風險:思政教育“精神空場”與公平性缺失
  智能算法推薦功能在提升思想政治信息傳播效率的同時,也可能導致算法權力的擴張,使智能算法成為引領網絡思潮、塑造網絡行為、形塑價值秩序的新型權力。如果缺乏有效的權力規制,那么算法權力就會沖擊自由、平等、公平等價值觀念,撕裂網絡空間主流意識形態價值共識,侵蝕學生的政治認同。其一,“精神空場”與網絡空間正能量的缺失。算法推薦是智能思政處理和傳播信息的最主要手段,無論是協同過濾的算法還是基于內容的算法,都以數據化的用戶信息偏好為導向,使得對用戶有直接興趣的信息進行挖掘和推送成為其關注重點[8]。而網絡空間能夠激發用戶興趣的信息常常是那些標題醒目、內容淺顯、語言通俗的碎片化信息。這類信息在網絡空間大行其道,必然壓縮偏重思想理論闡釋、話語風格嚴肅、富有思考深度的思想政治教育信息的生存空間,讓其得不到應有的推送級別和關注度,傳播覆蓋率、到達率、影響力不高。在“流量至上”的作用下,還會形成信息傳播強者愈強、弱者愈弱的“馬太效應”,讓網絡空間充斥著淺表化、娛樂化、碎片化、低俗化的信息,導致思想政治教育內容供給不足,引發思想政治教育信息的“精神空場”。學生被這些良莠不齊的信息所誤導,會產生精神缺失、信仰缺失和價值虛無等弊端。其二,“數字鴻溝”與思想政治教育公平性的喪失?!皵底著櫆稀笔侵感畔碛懈辉U吲c貧乏者之間的差距所形成的信息權利享有不對稱現象。由于掌握和運用智能技術的差異,智能思政“很有可能導致教育者與受教育者在不同性質主體之間或者同一性質主體之間因運用技術差異產生數字鴻溝”[9]。“數字鴻溝”不僅會阻礙教育主體之間的信息交流和溝通,還可能破壞思想政治教育的公平性,使那些智能設備欠缺、智能素養不高的教育主體喪失話語權,成為邊緣化的沉默群體。同時,智能思政系統通過機器學習的統計分類功能,還會給不同種族、性別、年齡和家庭的群體進行標記,形成算法偏見和刻板印象,影響思想政治教育公平。
 ?。ㄈ﹤惱硇袨槭М旓L險:群體思想極化與與人文精神的失落
  作為人類的技術發明,人工智能兼具自然屬性和社會屬性。在一定條件下,技術的自然屬性不可避免會引發技術異化的潛在風險。智能思政在改變思想政治教育組織形式、教學方法和話語內容的同時,其內在的技術范式也成為重要的宰制力量,有可能導致“信息繭房”、技術依賴、人文精神失落等風險生成。其一,“信息繭房”c學生群體思想極化。“信息繭房”現象是智能算法精準推薦和分發的伴生物,是指算法根據用戶的接受偏好或者設計者意圖進行信息的推送,讓用戶長時間接受同質化信息,沉浸于封閉窄化的信息環境中的狀態。因此,美國學者桑斯坦把“信息繭房”定義為“我們只聽我們選擇的東西和愉悅我們的東西的通訊領域”[10]。學生長期接受被智能遮蔽和過濾的同質化、個性化信息內容,學習興趣和注意力就會被鎖定在既定的范圍內。從而助長學生排斥異質化聲音和多元思想,固化知識結構、滋生小眾文化,強化認知的偏差和思維的故步自封,帶來群體極化現象。其二,技術依賴與學生反思和批判能力弱化。人工智能時代“社會控制的現行形式在新的意義上是技術的形式”[11],智能思政的自動化決策、用戶畫像、精準推送等功能優勢,容易使師生迷失在算法所制造的有效性和合理性幻象中,產生技術崇拜、思維惰性和路徑依賴。批判和反思精神的喪失,不僅會強化師生對智能思政系統的路徑依賴,而且會阻礙倫理風險意識的養成,對風險防控產生不良影響。其三,工具理性的張揚與人文精神的失落。工具理性主導下,缺乏對思想政治教育人文精神的價值觀照,算法規則和標準化流程限定了思想政治教育的對象、內容和方法,使思想政治教育內含的人文精神和價值理性受制于程序化、流程化的工具理性,“很難在數據交易過程彰顯其人文精神的社會關系向度”[12]。在這樣的背景下,學生很難通過冰冷的數據和算法代碼來體驗人文精神的溫情和熏陶。

 ?。ㄋ模﹤惱硪幏妒Э仫L險:責任倫理困境和隱私數據泄漏隱患
  倫理規范失控風險是指由于相關的制度規范缺乏或執行不力引發的人工智能倫理失范問題。智能思政在倫理規范失控方面的風險主要表現為責任倫理風險和隱私泄漏風險。其一,責任倫理問題。傳統責任倫理的判定是基于決策行為與行動后果之間相對清晰的因果邏輯,責任主體明確,追究責任便利。相較于傳統責任倫理中明確的因果關系,人工智能具有自動化決策功能,如果出現決策失誤,很難以追究智能思政技術主體或應用主體的責任。由于機器學習的自主性,也無法追究研發主體的責任,此時責任主體無法判定,追求相關責任以維護公共利益面臨困境[13]。同時,思想政治教育的政治性屬性要求教育者必須具有堅定的政治立場、敏銳的政治洞察力和鑒別力,而智能機器在思想狀況方面的鑒別力、判斷力還很難達到人類的水平,不能及時判斷思想政治教育狀況和發展趨勢,甚至出現重大的判斷失誤。如果智能思政系統出現誤判,由此引發的責任界定問題將會成為智能思政發展的重要障礙。其二,隱私倫理問題。占有大量數據是智能思政應用的前提和基礎,隨著數據挖掘、語音識別、人臉識別等技術的推廣和應用,數據不當采集、數據收集方濫用、數據二次使用與擴散等正嚴重危及思想政治教育數據安全和個人隱私。在智能思政實踐中,手機、電腦、一卡通、監控攝像機、智能穿戴等設備,以及視頻會議、虛擬仿真教學等平臺,已構成了多功能、立體化、全方位的智能感知系統。學生的生物信息、行程軌跡、關注內容、消費記錄、身體位置,乃至心理狀況、生理缺陷和家庭背景等數據很容易被獲取和收集,成為數據“透明人”。如果師生數據安全意識不強、數據保護機制欠缺就會讓其中的敏感信息、私密話題發生泄漏。隱私信息的泄漏,不僅會危害師生的人身財產安全和個人隱私信息,也會對智能思政的發展產生不可估量的負面影響。
  智能思政倫理風險防控是一個需要慎重選擇和認真對待的復雜問題,不可能一蹴而就,需要準確把握人工智能和思想政治教育融合發展的規律和特點,樹立整體性、關聯性、動態性、層次性的理念思維,構建整體智治、高效協同的倫理風險防控機制。
 ?。ㄒ唬﹥r值引領機制:樹立以人為本的智能思政倫理價值導向
  技術價值要與人的價值、文化價值統一起來,才能實現人的自由發展。智能思政倫理風險的防控,首先要從價值導向方面入手,突出思想政治教育的意識形態屬性和發展規律,強化馬克思主義的指導地位,堅持以人為本的價值立場,才能促進人工智能與思想政治教育的高質量發展與高水平互動,落實立德樹人根本任務。第一,始終堅持以馬克思主義為主導。思想政治教育旨在用科學的理論武裝學生的頭腦,引導他們堅定理想信念,樹立正確的價值觀,堅持以馬克思主義為指導是其本質要求和基本路徑。為此,在設計、開發智能思政算法時,要將馬克思主義主流意識形態融入算法設計與應用全過程,筑牢算法主流價值基礎。要“聚焦立德樹人根本任務,為學生的成長成才而服務,將積極正能量的核心價值觀融入算法‘推薦池’”[14],提高相關平臺推送思想政治教育信息的比例,讓正能量充盈網絡空間和智能思政平臺,使學生在網絡行為中獲得積極、陽光的正向激勵。第二,實現從技術本位向人之本位的轉變。在智能思政視閾中,思政是核心要義,智能技術是服務于思政的創新手段,要“堅持技術為‘用’,追求育人之‘本’”[15]。構建思想政治教育倫理的基本理念和原則是以人的發展為中心,關注其發展的未來性、生命性和社會性。人工智能在思想政治教育的任何應用,都不能改變服務于學生價值觀塑造和全面發展這一根本宗旨。推進智能思政,要著力實現從技術本位向人之本位的轉變,絕不能迷失在技術的浪潮中,喪失了促進人的主體性發展的立場方向。第三,遵循思想政治教育發展規律。規避智能思政倫理風險,既要遵循人工智能倫理的一般性原則,又要尊重和凸顯思政政治教育的自身規律,順應學生認知形成規律、層次需求規律和情感意志發展規律等。思想政治教育規律是“思想政治教育活動在其運動發展過程中內在的、本質的、必然的聯系”[16],人的思想和行為變化規律是思想政治教育的基本規律之一。在智能思政實踐中,要不斷探索學生的思維習慣和網絡行為規律,引導他們實現對智能技術外部依賴和被動接受的超越,克服“信息繭房”、過濾氣泡、算法歧視等背后的算法邏輯,構建精神豐盈的主體世界。
 ?。ǘ﹨f同治理機制:增強智能思政倫理風險防控協同化能力
  從系統科學的視角來看,智能思政倫理風險的防控是一個復雜系統,需要強化頂層設計,以系統性思維推動智能思政主體協同、技術協同和內容協同,切實提升密切配合和協調一致的協同防控能力。第一,構建智能思政倫理風險防控協同體。智能思政倫理風險的協同治理,重點是要構建起以政府為核心,高校、企業、師生等協同主體共同參與的自組織系統,打造倫理風險防控協同體,以整體、高效的風險管理聯動機制克服分散的、單項的風險治理機制。教育主管部門和科技管理部門要加強戰略規劃、宏觀統籌和整體協同,為智能思政提供政策依據、路線規劃和條件保障,健全數據資源共享平臺和運行監管機制。各高等學校要把智能思政作為智慧校園建設的重要內容,本著務實管用的原則,統籌推進教務處、馬克思主義學院、信息網絡中心、學生工作部、教師工作部等相關機構協同起來,打通條塊壁壘,實現資源共建共享。要著力暢通社會參與機制,促M人工智能企業、新媒體平臺等增強倫理風險防控協同意識,共同參與智能思政相關規則的制定,完善利益協調、內容分享、責任共擔機制。第二,夯實智能思政倫理風險協同防控的技術基礎。人工智能是智能思政倫理風險生成的技術因素,技術手段是風險規避的基礎性手段。為此,要加快人工智能技術突破和新型基礎設施建設,為智能思政發展和倫理風險防控提供堅實的物質保證。一方面要加強智能算法理論研究,掌握智能思政的核心技術,提升智能思政關鍵技術研發和數據共享能力,特別是要加強算法“黑箱”、數據泄漏、“信息繭房”等方面的規避技術研發,堵住倫理風險生成源頭。另一方面,要以智慧校園建設為依托,通過信息網絡升級、平臺體系融合、數字資源匯聚等途徑,構建可信、可靠、可控的思想政治教育課堂教學、實踐教學和日常養成智能協作平臺環境。與此同時,要深入推進思想政治教育傳播主體的智能轉型與合作,主流媒體要與其他媒體實現融合發展。積極發揮商業化媒體技術和平臺優勢,合作開設思想政治教育欄目,強化鏈接互通,形成立體化的智能思政生態系統。第三,推進優質思想政治教育資源供給。要加強議題設置,擴大優質內容供給,打造符合學生接受習慣的網絡文化精品。要組織開發一批高質量課件、案例庫、在線示范課程庫等優質教學資源,打造一批思政“金課”。在主流媒體平臺算法設計中適量增加思想政治教育信息比重,提高對學生成長具有重要價值的信息的推送比例,促進工具理性與價值理性的有機統一。

 ?。ㄈ┓ㄒ幖s束機制:提高智能思政倫理風險防控制度化水平
  倫理制度和法律法規是促進智能思政健康發展的前提和保障,也是規避智能思政倫理風險的強制性約束手段。要通過法律化解風險,通過法律吸納風險,將風險社會置于法治社會的背景之中,即對智能革命時代的法律制度乃至整個社會規范進行新的建構[17],才能維護好智能思政應用的秩序。第一,準則約束:編制智能思政倫理規范準則。目前,世界上大部分人工智能強國都成立了人工智能倫理委員會,并制定了相應的倫理準則。我國也先后成立了新一代人工智能治理專業委員會、國家科技倫理委員會,并發布了《新一代人工智能治理原則――發展負責任的人工智能》《新一代人工智能倫理規范》,分別提出了八條治理原則和六項基本倫理規范。這為智能思政倫理風險治理提供了行動指南和基本遵循。在現有倫理準則基礎上,還需要結合思想政治教育的特殊性,針對智能思政應用過程中凸顯出來的倫理風險問題,編制智能思政倫理規范指南。并圍繞指南制定相應的法律法規、責任清單和問責機制,為智能思政主體提供行動引領和道德約束。第二,法治規范:健全智能思政健康發展的法律法規。只有通過有力的法律法規約束,將制度的力量貫穿與智能思政開發設計和運行維護全過程,才能有效降低智能思政的倫理風險。盡管我國已經先后出臺了《中華人民共和國網絡安全法》《互聯網信息服務管理辦法》《網絡安全審查辦法》《中華人民共和國個人信息保護法》和《關于加強科技倫理治理的意見》等法律法規,但關于智能教育、智能思政等方面的法律法規還比較缺乏,與智能思政法治化治理的要求還有較大差距。為此,一方面要著力完善相關政策和法規。通過立法,健全算法設計、市場準入、平臺使用和過程監管等方面的法規制度,厘清智能思政相關主體的法律責任,規范智能平臺研發、信息分發和網絡行為,防止技術異化和價值扭曲。另一方面,要強化法規制度的貫徹執行。進一步增強智能算法監管的法治意識和法治思維,推動法規制度落實到位,加大對不法行為的懲罰力度,不斷探索智能思政法治化治理的可行策略。
 ?。ㄋ模┧仞B培育機制:提升智能思政倫理風險認知和應對能力
  智能思政倫理風險的防控成效,與作為技術主體的算法設計人員和應用主體的師生的智能素養密切相關。如果技術主體缺乏風險意識和責任意識,在設計研發環節就不能正確評估倫理風險,埋下風險隱患。如果應用主體缺乏相應的智能素養和技能,既不能有效發揮智能思政的功能,也不能有效規避智能思政面臨的各種倫理風險。這要求廣泛開展人工智能基礎知識、數據素養和算法素養培訓,貫通技能與人文、倫理和社會等知識領域,提升技術主體和應用主體智能化適應力、勝任力和創造力。第一,加智能思政技術主體的教育引導。要推動應用主體與技術主體圍繞人工智能倫理開展討論交流,強化對技術主體的價值理性引導和責任意識培育,自覺接受思想政治教育和相關學科知識培訓,增強專業性,強化算法研發和設計的道德自律性。第二,提升智能思政應用主體的智能素養。人工智能倫理風險不僅產生在研發設計環節,也生成于應用環節。提升師生的智能素養和應用技能,是規避智能思政倫理風險的必然要求。對于教師,要實施教師智能技術應用能力提升工程,在入職教育和在職培訓等環節加強教育培訓,做到熟知人工智能技術倫理風險,促進專業化發展。要引導教師在智能思政實踐過程中,自覺遵守人工智能倫理原則和規范,做出合乎教育效益、倫理規范和技術效能的教學安排與決策,督促學生合理合法地使用技術,正確處理、看待自身與思想政治教育人工智能的協同關系。對于學生,要加強人工智能倫理知識普及教育,通過將人工智能倫理教育融入課程教學,以及組織專題講座、案例分享、人工智能企業學習實踐等方式,推動學生掌握人工智能基本原理,提高信息分辨能力,自覺抵制“信息繭房”、價值無序、泛娛樂化等危害,養成正確的科技觀、倫理觀和網絡行為習慣。
  (五)監測評估機制:推進智能思政倫理風險防控全周期監管
  防范和化解智能思政倫理風險要依靠機制管長管遠。在智能思政推進過程中,要建立健全智能思政倫理風險準入評估、過程評估和績效評估機制,加強過程管控和結果評價,實現全面全程全員風險管理。第一,強化源頭管控,探索智能思政研發和運維主體準入評估機制。在智能思政平臺應用前,可以采取用戶參與式、體驗式等方式,在一定范圍內進行適應性論證和風險評估。要充分利用大數據、自然語言處理、智能識別等技術手段,建立智能思政倫理風險評估模型,全面評估研發和應用中的潛在風險,明確模糊界限。要加強算法審查和數據監管,對參與智能思政平臺建設的企業進行前置資格審查,建立柔性準入和強制退出機制,限制研發和使用具有潛在倫理風險的技術和功能,堵上智能思政應用的風險漏洞。第二,強化全程監管,探索智能思政倫理風險過程評估機制。智能思政研發和應用主體要充分發揮智能技術在倫理建設方面的優勢,加快倫理風險監測技術研發,搭建倫理風險監督、監測和審計體系。要針對不同的風險類型制定解決預案,開發合乎倫理的風險預警系統,以此持續監測思想政治教育人工智能倫理風險情況。如發現風險隱患和苗頭,要及時給教育部門、執法部門和師生發送預警信息,實現精準預警。第三,強化責任落實,探索智能思政倫理風險防控效果評估機制。圍繞倫理風險防控目標及防范機制內容,依托層次分析法(AHP)建立層次結構模型,搭建指標清晰、結構完備、操作性強的評價體系,對智能思政倫理風險防控效果進行客觀、科學的評價。并以行之有效的考核評價倒逼智能思政倫理風險防控責任落實,壓實相關主體責任,確保倫理風險防控取得實效,推動智能思政健康發展。
  參考文獻:
  [1] 崔建西,白顯良.智能思政:思想政治教育創新發展的新形態[J].思想理論教育,2021,(10):83-88.
  [2] SUSAN F.Ethics of AI:benefits and risks of artificial intelligence systems [EB/OL].https://interestingengineering.com/ethics-of-aibenefits-and-risks-of-artificial-intelligence-systems,2020-08-27.

  [3] 馬克思,恩格斯.中共中央編譯局譯.馬克思恩格斯文集(第8卷)[M].北京:人民出版社,2009.358.
  [4] 趙志耘,徐峰等.關于人工智能倫理風險的若干認識[J].中國軟科學,2021,(6):1-12.
  [5] 譚九生,楊建武.人工智能技術的倫理風險及其協同治理[J].中國行政管理,2019,(10):44-50.
  [6] 陳啟迪.人工智能嵌入高校思想政治教育的技術風險及應對策略[J].學校黨建與思想教育,2022,(9):78-81.
  [7] 馮銳,孫佳晶等.人工智能在教育應用中的倫理風險與理性抉擇[J].遠程教育雜志,2022,38(3):47-54.
  [8] 崔聰.人工智能時代思想政治教育的算法風險及其應對[J].思想理論教育,2020,(5):76-81.
  [9] 劉建華.論智能思想政治教育的可能與限度[J].思想理論教育,2020, (4):84-89.
  [10] [美]桑斯塔.畢競悅譯.信息烏托邦――眾人如何生產知識[M].北京:法律出版社,2008.8.
  [11] [美]赫伯特?馬爾庫塞.單向度的人――發達工業社會意識形態研究[M].上海:上海世紀出版集團,2016.9.
  [12] 吳凱.區塊鏈賦能思想政治教育的技術邏輯、風險挑戰與實踐策略[J].思想教育研究,2021,(6):43-48.
  [13] 任蓉.算法嵌入政府治理的風險及其防控[J].電子政務,2021,(7):31-41.
  [14] 鄧國峰,高安安.技術邏輯與價值定位:算法時代網絡思想政治教育新展望[J].思想教育研究,2022,(2):30-34.
  [15] 楊仁財.人工智能賦能高校思想政治教育的挑戰與應對[J].國家教育行政學院學報,2020,(5):54-59.
  [16] 張耀燦,鄭永廷等.現代思想政治教育學[M].北京:人民出版社,2006. 119.
  [17] 吳漢東.人工智能時代的制度安排與法律規制[J].法律科學,2017, 35(5):128-136.
  作者簡介:
  米華全:副教授,博士,研究方向為黨的建設、思想政治教育。
  Generation Logic, Manifestation and Prevention and Control Mechanism of Ethical Risk in Intelligent Ideological and Political Education
  Mi Huaquan
  (College of Marxism, University of Electronic Science and Technology, Chengdu 611731, Sichuan)
  Abstract: Intelligent ideological and political education is a new thing in the integration and development of artificial intelligence and ideological and political education. While intelligent technology creates new scenes and provides new means for ideological and political education, its possible ethical risks also need to attract people’s attention. The generation of ethical risk in intelligent thinking and politics is the result of the interaction of endogenous logic, functional logic and applied logic, which is mainly manifested in the imbalance of ethical relations, the disorder of ethical values, the inappropriate ethical behavior and the out of control of ethical norms. In order to ensure the healthy development of intelligent ideological and political work, it is necessary to do a good job in the overall prevention and control of ethical risks of intelligent ideological and political work from the dimensions of value guidance mechanism, collaborative governance mechanism, regulatory constraint mechanism, quality cultivation mechanism, monitoring and evaluation mechanism, etc.
  Keywords: intelligent ideological and political; ethical risk; generation logic; prevention and control mechanism
  收稿日期:2022年11月24日
  任編輯:李雅u


轉載注明來源:http://www.hailuomaifang.com/1/view-15446230.htm

相關文章

?
99久久国产综合精麻豆