位置:
首頁
2024年10月
算法自動化決策的風險識別與法律規(guī)制研究

算法自動化決策的風險識別與法律規(guī)制研究

來源: 發(fā)布時間: 2024-11-22 瀏覽:2026 次

文/郭德香 王瑩

摘要:隨著人工智能技術的飛速發(fā)展和數(shù)字經(jīng)濟時代的來臨,人工智能算法自動化決策被廣泛應用于社會生活的各個領域。必須要注意到,自動化決策作為算法技術的一種,本身具有的內生性風險為當前法律規(guī)制體系帶來了新的挑戰(zhàn)。為了管控自動化決策所衍生的應用風險,應當在堅持算法發(fā)展與技術規(guī)制平衡的原則下,遵循內外部同時監(jiān)管的二元監(jiān)管思路,并不斷推動算法自動化決策的場景化治理。在法律規(guī)制層面,應完善自動化決策風險評估機制,實現(xiàn)分級分類管理,完善算法影響評估機制并確立算法侵權責任機制,以更好防范自動化決策風險,增強自動化決策的可信賴性。

關鍵詞:自動化決策 算法規(guī)制 人工智能 算法責任

一、引言

《中華人民共和國個人信息保護法》第73條第2款首次以法律法規(guī)層面明確“自動化決策”一詞,自動化決策是指通過計算機程序自動分析、評估個人的行為習慣、興趣愛好或者經(jīng)濟、健康、信用狀況等,并進行決策的活動。然而,涉及到個人信息和海量數(shù)據(jù)處理的自動化決策過程在特定情形下隱藏著潛在的危險。固然,在理想狀態(tài)下自動化決策被設想為完全價值中立的,但算法本身的“黑箱”特征注定了算法決策的隱蔽性,自動化決策技術的深度應用不可避免的會對個人主體權益產(chǎn)生影響,可能會出現(xiàn)削弱人類主體性或決策結果有失公正的情況。在這種現(xiàn)實背景下,對自動化決策進行全面且有效的法律規(guī)制迫在眉睫。

二、算法自動化決策的應用現(xiàn)狀與法律風險

決策行為原本是指人類在信息和數(shù)據(jù)的基礎上,通過自身的認知和邏輯推理,得出一定結果的過程。算法技術的發(fā)展使得決策能夠由機器輔助或者直接作出。在數(shù)字經(jīng)濟時代,伴隨著人工智能的深度學習和不斷優(yōu)化,算法自動化決策開始廣泛應用于社會生活的各個領域,有助于時間的節(jié)約和效率的提升。然而,算法自動化決策所帶來的風險挑戰(zhàn)也必須予以重視,其自身的內生性風險為當前的算法治理體系帶來了新的挑戰(zhàn),且目前對于算法技術的法律規(guī)制多呈現(xiàn)相對滯后性、碎片化特征,法律規(guī)制還有待完善。

(一)自動化決策深度嵌入數(shù)字經(jīng)濟

自動化決策遵循“大數(shù)據(jù),小定律”的技術范式,在具體行業(yè)場景中,自動化決策通過個人征信、用戶畫像、個性化展示等服務或產(chǎn)品呈現(xiàn)出來。數(shù)字經(jīng)濟時代的科技運用,讓個人的信息和行為經(jīng)歷刻畫在每個人的“數(shù)字皮膚”之上,極大的提高決策的效率性和精準性,大數(shù)據(jù)分析和自動化決策無疑為商業(yè)競爭者提供了無可比擬的競爭優(yōu)勢,提升經(jīng)濟效益的同時,也助力推動新業(yè)態(tài)模式的興起。從商業(yè)應用的角度來看,通過對海量客戶數(shù)據(jù)的深入分析,自動化決策能夠實現(xiàn)對個體用戶需求的精確把握。這一能力不僅為企業(yè)提供了前所未有的個性化服務和建議,更在多個商業(yè)領域中展現(xiàn)出其實質性優(yōu)勢。在市場銷售領域,自動化決策的應用范圍不斷拓展,已不僅僅局限于于用戶行為的分析。它能夠生成個性化的產(chǎn)品或服務推薦,為銷售團隊創(chuàng)建“智能銷售助手”,提供更為準確和高效的銷售建議和解決方案。這種創(chuàng)新的工具和策略,為市場銷售注入了全新的智能化動力。

例如,電商平臺利用數(shù)據(jù)分析來預測用戶購買行為,從而優(yōu)化產(chǎn)品推薦系統(tǒng)。該系統(tǒng)基于大數(shù)據(jù)分析,實時監(jiān)測用戶行為,并根據(jù)歷史數(shù)據(jù)動態(tài)調整商品推薦,以滿足每位顧客獨特的購物偏好。這使得平臺能夠提高轉化率和客戶滿意度,同時降低庫存積壓和成本。再如,銀行通過整合內部數(shù)據(jù)與外部來源,可以建立一個全面的客戶關系管理系統(tǒng),該系統(tǒng)利用自然語言處理技術,分析客戶的電子郵件、社交媒體互動和在線交易記錄,從而揭示客戶的需求模式和興趣點,這些信息被用來定制個性化的營銷活動和服務方案,極大地提升了客戶忠誠度和業(yè)務成果。類似的案例不勝枚舉。無論是在零售業(yè)、金融服務業(yè)還是其他行業(yè),自動化決策都以其智能、高效和創(chuàng)新的特性,幫助企業(yè)適應市場變化,把握商機,在競爭激烈的市場中占據(jù)有利地位。這些應用實例清晰地說明了自動化決策如何結合數(shù)字經(jīng)濟發(fā)展特點,從而在各個層面上為企業(yè)帶來實質性的優(yōu)勢。

(二)自動化決策的內生性風險帶來治理困境

自動化決策遵循“算法形式主義”,通過輸入、輸出和目標的規(guī)則表達,將決策結果的產(chǎn)生公式化,算法的動態(tài)演化和不可解釋性使這一轉譯過程具有內生性風險。內生性風險與技術本身的特性密切相關。這種風險是由于技術的設計缺陷、操作失誤或維護不當所引起的問題。例如,軟件漏洞、硬件故障或者過時的技術標準等都屬于內生性風險,這類風險通常需要通過深入分析技術實現(xiàn)細節(jié)來識別和評估。大數(shù)據(jù)技術和人工智能技術的發(fā)展都需要對人類生活信息進行記錄,人工智能技術在學習的過程中也有可能將人類某些偏見和價值情緒一概習得,且算法的黑箱性特點導致算法運行程序的不透明,可能會導致“信息繭房”“算法歧視”“算法暴政”等危害性結果。在當今數(shù)字化的時代,算法技術已經(jīng)成為企業(yè)和組織決策中不可或缺的一部分。然而,由于算法決策過程往往缺乏透明度,導致了所謂的算法“黑箱”現(xiàn)象,即公眾對算法如何得出決策結果幾乎一無所知。這種“黑箱”式的決策過程將決策的各個環(huán)節(jié)分割開來,分別交給數(shù)據(jù)采集、分析、判斷等不同的模塊處理。當人們面對算法提供的決策結果時,往往不知道背后的推理原理和整個決策流程。這種情況下,對于結果接受的不再是基于人類理性的判斷,而是算法的機械邏輯。當前對于自動化決策的設計及運行程序缺乏必要的記錄,這就導致難以對其開展有效的評估和驗證,對特定的決策結果進行合理化解釋更是困難重重。

(三)當前對于算法技術的法律規(guī)制供給不足

從國內法律規(guī)定看,近年來我國的算法立法取得了明顯的進展,相關規(guī)范文件數(shù)量也大幅增加。然而,算法治理的規(guī)則散落分布于不同的法律規(guī)定之中,這些規(guī)定主要體現(xiàn)在知識產(chǎn)權保護、個人信息保護等多個方面,但它們并未形成一個統(tǒng)一的框架。這種分散的狀態(tài)導致了在具體執(zhí)行時,對于算法行為的界定和處理缺乏明確的尺度和標準。在這個過程中,裁量權的運用往往不夠一致,認定標準也難以達成共識,這無疑增加了治理工作的難度。隨著算法技術的飛速發(fā)展,新出現(xiàn)的問題和挑戰(zhàn)層出不窮,如數(shù)據(jù)隱私、算法偏見等問題,都需要法律層面進行及時而有效的應對。

然而,在現(xiàn)有的法規(guī)體系下,面對這些新興議題時,相關部門的響應速度似乎有所滯后。平臺企業(yè)作為推動技術發(fā)展的重要力量,他們對于遵守算法合規(guī)要求有著迫切需求,但現(xiàn)行的法規(guī)卻難以滿足他們日益增長的合規(guī)需求。因此,我們必須正視這一問題,尋找解決之道,以確保技術進步與社會治理的和諧共存。在制定相關法規(guī)時,必須進一步明確算法問責的標準和程序。這意味著算法決策的每一步都應受到嚴格監(jiān)督,確保透明度和問責制得到充分執(zhí)行。只有這樣,才能防止權力濫用,并保護個人隱私與數(shù)據(jù)安全。同時,通過對算法設計進行合理限制,可以確保其符合倫理和社會價值觀,避免算法偏見和歧視等問題的發(fā)生。

三、算法自動化決策的治理邏輯

在經(jīng)濟系統(tǒng)發(fā)生深刻變革的今天,對于自動化決策治理的邏輯與方式亦必須與時俱進,作出相應的調整。這要求我們從傳統(tǒng)的規(guī)則治理邏輯轉向更加注重代碼層面的治理邏輯。這樣的轉變不僅僅是對現(xiàn)有治理體系的完善,更是為了最大化地挖掘和利用算法技術中所蘊含的巨大潛力。

(一)堅持算法發(fā)展與技術規(guī)制平衡原則

算法自動化決策并非一無是處的“壞”技術。在法律層面對其進行規(guī)范與約束時,我們必須全面考量它對行業(yè)進步的深遠影響。在判定責任界限時要充分考慮行業(yè)的發(fā)展水平這一核心要素,甚至當考慮到特定行業(yè)內的特殊需求以及對社會所能提供的價值時,也應適度地接受算法出現(xiàn)偶發(fā)性錯誤的可能性。這不僅要求技術規(guī)制能夠適應不斷變化的商業(yè)創(chuàng)新步伐,而且還需要它展現(xiàn)出更為靈活的治理方式。具體到算法技術規(guī)制的實施層面,其尺度和標準的確立,關鍵在于如何精確衡量技術治理過程中的成本與由此帶來的效能提升之間的價值平衡。這種平衡不僅關乎效率,更關乎公平、透明以及可持續(xù)發(fā)展的理念。在制定相關法規(guī)時,我們必須確保這些規(guī)定既能促進科技創(chuàng)新,又不至于過度限制或阻礙市場的活力,應該根據(jù)不同行業(yè)的特性、市場環(huán)境以及技術進步的動態(tài)特征,靈活調整規(guī)制策略。

因此,在完善法律法規(guī)和監(jiān)管框架的同時,我們還應該采取一系列創(chuàng)新措施,以促進算法技術的合理應用和健康發(fā)展。通過建立透明、公正的數(shù)據(jù)使用機制,確保用戶能夠理解算法決策背后的邏輯和過程,同時也讓利益相關者有機會參與到算法設計中來,共同推動技術向更加公平、可持續(xù)的方向發(fā)展。這種方法不僅有助于減少因信息不對稱導致的市場扭曲現(xiàn)象,而且還能增強社會整體對算法技術的信任和接受度??傊鎸?jīng)濟與科技的雙重轉型,我們應立足長遠,既要保障創(chuàng)新動力的釋放,又要防范潛在的風險,確保人工智能等新興技術能夠為人類帶來福祉,而非成為未來發(fā)展的障礙。通過這樣的治理策略,可以有助于走向一個更加智能、更加公平、更具包容性的數(shù)字時代。

(二)遵循內外部二元監(jiān)管思路

在當今這個快速發(fā)展的時代,現(xiàn)代治理理念已經(jīng)不再局限于傳統(tǒng)的單一治理模式,而是提倡一種更為開放和綜合的治理思想。這種理念認為,要想有效應對日益復雜多變的社會問題,就必須打破現(xiàn)有的系統(tǒng)壁壘,實現(xiàn)各個社會子系統(tǒng)間的結構耦合。對于涉及自動化決策的監(jiān)管,這種理念同樣適用。在人工智能技術迅猛發(fā)展、自動化決策頻繁出現(xiàn)的背景下,僅僅依靠單一部門或機構來進行監(jiān)管已顯得力不從心。因此,需要通過跨部門、跨學科的合作與協(xié)調,形成一個協(xié)同監(jiān)管的體系,以確保自動化決策既能發(fā)揮其優(yōu)勢,又能避免潛在的風險和不公正現(xiàn)象。

具體而言,這一監(jiān)管理念在保有傳統(tǒng)監(jiān)管方式的基礎上,引入特定責任主體,例如我國個人信息保護法所明確的個人信息保護負責人。該責任主體不僅需要在企業(yè)設計算法時介入,而且還要對其實施全程監(jiān)控。如果企業(yè)在開發(fā)算法的過程中未能及時向責任主體報告,那么企業(yè)將不可避免地面臨行政處罰。責任主體在算法設計的早期階段就可以介入,與算法設計師進行溝通,告知他們可能的法律風險。這一措施旨在幫助算法設計師們避免未來可能出現(xiàn)的法律問題,確保他們的算法設計符合法律規(guī)定,從而保護消費者權益和社會公共利益。

算法設計完成之后,還需要對算法的決策后果進行深入的評估。這一過程涉及多個層面,包括但不限于算法的透明度、公平性、隱私保護以及對不同群體的影響等。通過這種全面的評估,責任主體能夠對算法的潛在后果進行準確判斷,并在后續(xù)的算法評估報告中詳細披露所有相關信息。這些報告中不僅包括了算法設計師的名字,還包括了對算法運行負責的具體員工,確保所有責任都能明確歸屬。如果責任主體發(fā)現(xiàn)某個算法在運行中存在歧視現(xiàn)象,或者其結果對某些群體不公,或者有侵害消費者利益的風險,他們將采取行動要求算法的使用者進行改正,這可能意味著需要重新調整算法的參數(shù)或邏輯結構,以消除任何可能引起爭議的因素。

(三)推動算法自動化決策場景化治理

在數(shù)字化轉型的浪潮中,應用場景已經(jīng)成為城市治理領域的新興關鍵元素。這些場景不僅體現(xiàn)了以用戶為中心的思維方式,而且它們強調互動性的運行模式、快速響應變化的敏捷治理策略,以及與市民和社會各方面共同創(chuàng)造價值的能力。具體到算法自動化決策的治理過程中,我們必須認識到算法應用中一個關鍵的規(guī)律——即不同的應用場景會導致算法性質上的巨大差異。正因為這樣的差異性,我們不能僅僅依賴于抽象的理論框架來進行算法設計和優(yōu)化,而是應該更加關注于對不同場景下的具體需求和特征的深入理解與歸納。這種場景化的要求使得我們能夠針對每個特定的用戶群體、面臨特定的風險類型、所使用的算法技術以及監(jiān)管環(huán)境等因素,制定出更為精準和有效的解決方案。因此,場景化不僅是一種方法論上的轉變,更是對算法應用實踐的一次深刻洞察。通過細致地分析不同場景的特點,我們可以確保算法設計的每一步都緊密貼合實際,從而最大限度地提高算法的實用性和有效性。簡而言之,場景化的要求推動了算法設計從理論層面走向實踐層面的進步,為算法的應用提供了更加堅實的基礎。

四、算法自動化決策的法律規(guī)制進路

對算法自動化決策進行立法規(guī)制時,橫向層面上要不斷推進場景化治理的精細化,完善相應評估機制,縱向層面上要將算法技術優(yōu)化與用戶交互體驗視為核心樞紐通過這一軸線,從事前準備階段到執(zhí)行過程以及事后階段的全流程進行精心設計和動態(tài)治理積極探索出符合我國國情的法律規(guī)制路徑。

(一)完善算法決策風險評估機制

在推進算法自動化決策安全評估與風險監(jiān)測制度的過程中,必須深入理解治理機制的動態(tài)化和靈活性的重要性。不僅要有前瞻性地預見到算法技術可能帶來的風險,還要具備快速響應并采取有效措施的能力。因此,構建一個全面的評估框架,應當是一個動態(tài)、分階段實施的策略。這個框架應當從對自動化決策技術的分類入手,細致地將它們分為不同的等級或類別,然后針對每個類別設計出相應的評估標準和監(jiān)測指標,確保對技術應用的全生命周期都能進行細致的監(jiān)控和評估,從而及時發(fā)現(xiàn)潛在的安全隱患,并迅速采取應對措施。最終目的是要構建一個既全面又實用的評估框架,它不僅可以用來指導未來算法的開發(fā)與應用,還能為政策制定者提供決策支持,以應對人工智能技術發(fā)展帶來的挑戰(zhàn)和機遇。

在《人工智能法案》中,歐盟構建了一套以風險為基礎的人工智能治理框架。該框架要求對人工智能系統(tǒng)的潛在影響進行全面而細致的評估,并將結果分為四個不同等級:最小風險、有限風險、高風險以及不可接受風險。在當前的治理實踐中,我國需要借鑒國際社會的有益做法,實施分類分級的治理策略,這一策略要求對那些可能引發(fā)重大政治和經(jīng)濟安全的關鍵領域進行優(yōu)先處理。具體來說,對于那些關系到人民生命安全、健康以及重大財產(chǎn)利益的關鍵行業(yè)需要給予特別關注。例如,金融行業(yè)作為國家經(jīng)濟的重要支柱,它的穩(wěn)定與安全直接關聯(lián)著整個社會的經(jīng)濟安全。因此,必須強化對該行業(yè)的監(jiān)管,確保其能夠有效抵御風險,維護市場秩序,保障金融體系的穩(wěn)健運行。此外,面對國家重大安全問題,以及擁有市場支配地位的大型互聯(lián)網(wǎng)平臺,我國也需要制定專門的算法規(guī)制措施。

(二)完善算法影響評估機制

影響評估制度深植于協(xié)同治理的理念之中,它致力于將多樣化的治理主體聚集在一個共同的管理平臺之上,以實現(xiàn)優(yōu)勢互補。在這個框架內,監(jiān)管機構、被監(jiān)管者、第三方以及公眾都能發(fā)揮作用,共同推進治理目標的達成。影響評估作為一種科學且系統(tǒng)的治理工具,已經(jīng)被廣泛應用于眾多領域,包括但不限于環(huán)境治理和數(shù)據(jù)治理。面對人工智能、大數(shù)據(jù)等新興技術帶來的治理挑戰(zhàn),建立一套科學有效的算法影響評估機制顯得尤為迫切,通過研究算法對社會行為和個體選擇的潛在影響,為制定相關政策提供理論依據(jù)和實踐指導。

首先,協(xié)作治理的理念應當成為算法影響評估制度構建的核心指導原則。這意味著,在算法決策過程中,需要各方主體之間的緊密合作,包括政府、企業(yè)、學者以及公眾等,共同參與到算法的設計、開發(fā)和應用之中。其次,開放性和責任性是算法影響評估機制設計中不可忽視的關鍵要素。開放性要求評估制度能夠容納各種不同的聲音和觀點,確保評估的全面性和公正性。而責任性則強調評估過程應對所帶來的后果負責,保證算法技術的使用不會造成不良的社會影響。這兩個維度相輔相成,缺一不可。最后,必須在算法影響評估制度的構建過程中,始終貫穿技術-組織-社會的系統(tǒng)論思維。這種思維方式要求我們不僅僅關注技術本身的影響,還要深入理解組織結構和社會互動的復雜性。因此,我們需要在各類系統(tǒng)框架的廣泛比較中,尋找那些能夠適應不同應用場景的、具有差異化特征的評估模型。

(三)確立算法侵權責任機制

在算法技術發(fā)生侵權的情形之后,首先要完成的是對于算法侵權相關關系以及責任主體的判定。與一般侵權案件不同,由于算法決策過程中涉及復雜的技術邏輯與數(shù)據(jù)分析,其因果關系的判定變得更加困難。在傳統(tǒng)侵權法律框架下,必然性因果關系和蓋然性因果關系成為了判斷責任歸屬的重要標準。然而,在算法環(huán)境中,這兩種關系往往并不成立,因為算法運行時所依據(jù)的相關關系是動態(tài)的,它可能會隨著時間、地點以及情境的變化而發(fā)生改變。因此,面對算法侵權案件時需要采取一種更為靈活和多元的視角來分析問題。在此基礎上,對算法侵權責任的界定也必須充分考慮到個案的具體情況,對各種責任主體的身份和作用進行細致的劃分。例如,在某些情況下,算法設計者可能未能遵循既定的技術操作規(guī)范,或者故意規(guī)避倫理道德甚至法律,從而主動設定了不當規(guī)則,最終導致第三人合法權益受損。在這種情況下,設計者應當承擔起相應的法律責任。另一方面,如果算法是基于自主學習能力和主動探索行為形成的自我規(guī)則,并且設計者對算法風險的控制程度相對較低,那么在一定程度上,設計者可以因主觀惡意和過錯的程度有限而進行免責。這意味著,在某些情況下,設計者可能因為其在設計過程中的失誤或疏忽,而無需承擔全部或部分的侵權責任。

在算法風險侵權的情境中,還應當謹慎處理風險性損害的賠償問題,以一種有條件、有限度的方式來承認和補償受害者。這種賠償不應僅僅基于金錢的支付,而更應注重于對受害者精神或財產(chǎn)上的實際損害進行合理的評估和賠償,特別是在預防性支出方面。為了確保這類賠償?shù)墓叫院凸?,可以采用動態(tài)系統(tǒng)論和場景論的方法來審視和界定“嚴重性”要素的認定過程。通過對不同場景下算法風險的具體分析,可以動態(tài)地調整和界定嚴重精神損害的評價要素,從而為受害者提供更加個性化和針對性的支持。此外,除了金錢賠償外,還應考慮到其他非金錢的補償方式,如停止侵害、消除影響、恢復名譽、賠禮道歉以及不作為禁令等。

五、結語

在人工智能技術飛速發(fā)展的推動下,算法自動化決策技術已經(jīng)與我們的社會生活實現(xiàn)了深度融合。這種融合不僅帶來了創(chuàng)新的機遇和提升效率的可能,也帶來了前所未有的風險和挑戰(zhàn)。算法技術的黑箱效應使得監(jiān)管機構難以準確識別潛在的風險并進行有效防范,也讓責任追究變得更加復雜和困難。因此,需要采取一種平衡技術發(fā)展與法律規(guī)制的策略,采用協(xié)同治理的理念,通過完善算法決策風險評估機制和算法影響評估制度來加強對自動化決策過程的全面監(jiān)控。同時,對于算法侵權行為,需要確立起一套有效的責任機制,以防止濫用和不當使用算法帶來的負面后果,從而構建一個更加公平、安全、透明的數(shù)字環(huán)境,在技術帶來的便利的同時,避免其潛在的危險和問題,實現(xiàn)技術向善的愿景。(參考文獻略)(作者郭德香為鄭州大學法學院教授、博士生導師,王瑩為鄭州大學法學院碩士研究生。本文是河南省教育廳軟科學項目:重大公共衛(wèi)生應急體系建設的法治化路徑及對策研究(22B330004)的階段性成果之一)