人工智能安全的責(zé)任歸屬
當(dāng)前,人工智能技術(shù)快速發(fā)展,大模型能力快速躍升,應(yīng)用場(chǎng)景持續(xù)拓寬,極速滲透到社會(huì)生活的方方面面,其安全性不僅關(guān)乎技術(shù)穩(wěn)定,更直接關(guān)系到個(gè)人權(quán)益、社會(huì)公平乃至國(guó)家安全。目前關(guān)于人工智能安全的討論,常被一種“技術(shù)中立”和“工具理性”的話語(yǔ)所主導(dǎo),在應(yīng)對(duì)思路上將人工智能安全問(wèn)題簡(jiǎn)化為純粹的技術(shù)缺陷,如模型產(chǎn)生“幻覺(jué)”、數(shù)據(jù)存在偏見(jiàn)、易受惡意提示詞攻擊等,并試圖通過(guò)更精良的算法和模型優(yōu)化等技術(shù)性舉措來(lái)修補(bǔ)。但是,人工智能安全并非單純的技術(shù)議題,其背后潛藏著責(zé)任歸屬問(wèn)題。
在人工智能系統(tǒng)的開(kāi)發(fā)、部署與使用過(guò)程中,不同主體扮演著不同角色,承擔(dān)著不同責(zé)任,但現(xiàn)有框架下責(zé)任劃分并不明晰。如可能因追求技術(shù)突破而忽視潛在風(fēng)險(xiǎn),可能因缺乏專業(yè)知識(shí)而無(wú)法有效識(shí)別風(fēng)險(xiǎn),可能因技術(shù)認(rèn)知局限而難以制定科學(xué)合理的監(jiān)管政策。這種責(zé)任缺失狀態(tài),不僅阻礙了人工智能技術(shù)的健康發(fā)展,還可能引發(fā)一系列社會(huì)問(wèn)題。更為嚴(yán)峻的是,在人工智能事故發(fā)生后往往導(dǎo)致責(zé)任推諉現(xiàn)象的發(fā)生。當(dāng)人工智能系統(tǒng)造成損害時(shí),開(kāi)發(fā)者可能聲稱已盡到技術(shù)告知義務(wù),使用者則可能主張自身只是被動(dòng)接受技術(shù)成果,而監(jiān)管者也可能因缺乏明確法律依據(jù)而難以迅速定責(zé)。這種“三個(gè)和尚沒(méi)水吃”的困境,使得受害者權(quán)益難以得到及時(shí)有效保障,也削弱了公眾對(duì)人工智能技術(shù)的信任基礎(chǔ)。因此,破解人工智能安全背后的責(zé)任歸屬問(wèn)題,已成為推動(dòng)人工智能健康可持續(xù)發(fā)展的當(dāng)務(wù)之急。
究其原因,在于技術(shù)“黑箱”與責(zé)任缺失的雙重疊加。平臺(tái)企業(yè)借助模糊授權(quán)、跨平臺(tái)抓取等手段,低成本獲取用戶數(shù)據(jù),既缺少明確的定價(jià)補(bǔ)償機(jī)制,又用算法封閉性掩蓋數(shù)據(jù)濫用風(fēng)險(xiǎn),形成“用戶貢獻(xiàn)數(shù)據(jù)卻失去控制權(quán)”的結(jié)構(gòu)性不公。當(dāng)人工智能產(chǎn)生虛假內(nèi)容或作出錯(cuò)誤決策時(shí),企業(yè)常常以“算法自動(dòng)運(yùn)行”“非人為控制”為由逃避責(zé)任,而用戶卻要獨(dú)自承受名譽(yù)受損、財(cái)產(chǎn)損失等后果。
商業(yè)化驅(qū)動(dòng)下的倫理弱化。部分企業(yè)沿襲傳統(tǒng)工業(yè)邏輯,把規(guī)模與利潤(rùn)置于安全倫理之上,未構(gòu)建完善的人工智能倫理治理體系。在教育、醫(yī)療等敏感領(lǐng)域,一些企業(yè)貿(mào)然部署未經(jīng)驗(yàn)證的人工智能系統(tǒng),卻未設(shè)置強(qiáng)制人工審核機(jī)制;更有甚者利用算法進(jìn)行消費(fèi)誘導(dǎo)、情緒操控,以用戶權(quán)益為代價(jià)換取短期利益。這種“收益私有化、風(fēng)險(xiǎn)社會(huì)化”的模式,損害了公眾對(duì)人工智能技術(shù)的信任。
監(jiān)管體系的滯后性?,F(xiàn)有法規(guī)對(duì)人工智能全鏈條的權(quán)責(zé)劃分還不夠明晰,跨部門(mén)監(jiān)管協(xié)調(diào)機(jī)制還不健全,難以有效應(yīng)對(duì)技術(shù)快速迭代產(chǎn)生的新型風(fēng)險(xiǎn)。當(dāng)事故發(fā)生時(shí),開(kāi)發(fā)者、平臺(tái)、使用者之間相互推諉,而“誰(shuí)主張誰(shuí)舉證”的傳統(tǒng)原則,讓處于信息劣勢(shì)的用戶難以完成責(zé)任追溯,最終不了了之。
加強(qiáng)人工智能治理應(yīng)注重構(gòu)建權(quán)力與責(zé)任對(duì)等的治理體系。通過(guò)強(qiáng)化大眾參與、健全法律框架明確責(zé)任歸屬、加強(qiáng)合作打破壟斷等推動(dòng)人工智能安全治理。
人工智能安全需涵蓋經(jīng)濟(jì)安全、社會(huì)公平、權(quán)力制衡、民主問(wèn)責(zé)等維度。必須將“人的福祉”和“社會(huì)公平正義”作為人工智能安全的重要考量因素,構(gòu)建一個(gè)綜合性的安全觀,這一安全觀不僅要包括技術(shù)的穩(wěn)健性和倫理的符合性,還要充分考慮其對(duì)社會(huì)的影響。同時(shí),必須將安全理念內(nèi)化為人工智能研發(fā)過(guò)程中的核心要素,而不是僅僅作為事后補(bǔ)救的附加措施。具體而言,可以通過(guò)采用倫理嵌入的方法,在技術(shù)開(kāi)發(fā)初期就將倫理原則轉(zhuǎn)化為具體可執(zhí)行的技術(shù)要求,從而確保技術(shù)的健康發(fā)展。此外,還應(yīng)根據(jù)風(fēng)險(xiǎn)等級(jí)將人工智能系統(tǒng)劃分為不可接受風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)和最小風(fēng)險(xiǎn)四類,并針對(duì)不同類別實(shí)施差異化的監(jiān)管措施,以確保人工智能技術(shù)的安全、可靠和可持續(xù)發(fā)展。
構(gòu)建一個(gè)全面且可追溯的問(wèn)責(zé)機(jī)制。這一機(jī)制的核心在于打破技術(shù)的封閉性,即所謂的“技術(shù)黑箱”,從而推動(dòng)算法的透明度和可解釋性,確保公眾能夠通過(guò)多種渠道參與到監(jiān)督過(guò)程中。為此,我們需要通過(guò)制定和完善相關(guān)的法律法規(guī)及行業(yè)標(biāo)準(zhǔn),明確人工智能系統(tǒng)在開(kāi)發(fā)、部署和使用等不同環(huán)節(jié)中,各相關(guān)主體包括開(kāi)發(fā)者、部署者和使用者的安全責(zé)任。這樣,才能建立起一個(gè)貫穿技術(shù)全生命周期的、環(huán)環(huán)相扣的問(wèn)責(zé)鏈條。值得注意的是,人工智能所帶來(lái)的風(fēng)險(xiǎn)與以往任何技術(shù)都存在顯著差異。其風(fēng)險(xiǎn)并非集中在產(chǎn)品“出廠那一刻”,而是在于它“被激活的一瞬間”。因此,真正的風(fēng)險(xiǎn)控制點(diǎn)并不在于模型參數(shù)的優(yōu)化,而在于技術(shù)邊界的設(shè)計(jì)與界定。我們必須確保人工智能系統(tǒng)始終在明確的邊界內(nèi)安全、穩(wěn)定運(yùn)作。每一項(xiàng)人工智能能力的釋放,都應(yīng)當(dāng)同步建立與之配套的權(quán)限機(jī)制、追責(zé)機(jī)制、技術(shù)封裝和行為隔離措施。只有這樣,我們才能在保障人工智能技術(shù)發(fā)展的同時(shí),有效防范和應(yīng)對(duì)可能出現(xiàn)的風(fēng)險(xiǎn),確保技術(shù)的健康、可持續(xù)發(fā)展。
敏捷協(xié)同的治理結(jié)構(gòu)是實(shí)現(xiàn)高效科技治理的關(guān)鍵。在這一結(jié)構(gòu)中,政府、企業(yè)、學(xué)術(shù)界、用戶以及公民社會(huì)等多方主體需要緊密合作,共同構(gòu)建一個(gè)多元化的治理網(wǎng)絡(luò)。政府部門(mén)在這一網(wǎng)絡(luò)中扮演著重要角色,可以通過(guò)加強(qiáng)法律法規(guī)和公共政策的引導(dǎo)作用,如積極推進(jìn)人工智能法的出臺(tái),為人工智能的發(fā)展提供明確的法律框架。同時(shí),政府還可以通過(guò)投資建設(shè)公共安全基礎(chǔ)設(shè)施,如國(guó)家級(jí)的人工智能安全評(píng)測(cè)平臺(tái),來(lái)降低所有參與者的安全門(mén)檻,尤其是對(duì)于中小企業(yè)和公共機(jī)構(gòu)而言,這將極大地減輕其負(fù)擔(dān),提升整體安全水平。在這個(gè)治理結(jié)構(gòu)中,獨(dú)立的安全審計(jì)機(jī)構(gòu)、第三方測(cè)評(píng)機(jī)構(gòu)以及公眾監(jiān)督機(jī)制都發(fā)揮著不可或缺的作用。它們能夠?qū)?/span>“技術(shù)權(quán)力”形成有效的制衡,確保技術(shù)的開(kāi)發(fā)和應(yīng)用不會(huì)偏離倫理和安全的軌道。人工智能行業(yè)協(xié)會(huì)作為行業(yè)內(nèi)部的自律組織,可以牽頭制定大模型安全倫理自律公約,通過(guò)行業(yè)自律來(lái)加強(qiáng)風(fēng)險(xiǎn)監(jiān)管,推動(dòng)企業(yè)在技術(shù)研發(fā)和應(yīng)用過(guò)程中自覺(jué)遵守安全倫理規(guī)范。這種多方協(xié)同、多角度制衡的治理結(jié)構(gòu),將為人工智能的健康發(fā)展提供堅(jiān)實(shí)的保障。
此外,還需要構(gòu)建全鏈條權(quán)責(zé)治理體系。立法層面明確數(shù)據(jù)產(chǎn)權(quán)界限與算法責(zé)任歸屬,對(duì)高風(fēng)險(xiǎn)領(lǐng)域?qū)嵭?/span>“可推定責(zé)任”原則。企業(yè)將倫理治理融入戰(zhàn)略,設(shè)立算法倫理委員會(huì)與前置評(píng)估機(jī)制。監(jiān)管部門(mén)建立跨領(lǐng)域協(xié)同機(jī)制,推行“數(shù)據(jù)—模型—輸出”全鏈路備案制度。強(qiáng)化社會(huì)監(jiān)督與行業(yè)自律協(xié)同發(fā)力,鼓勵(lì)第三方機(jī)構(gòu)開(kāi)展算法合規(guī)評(píng)估與倫理審計(jì),暢通公眾舉報(bào)渠道。健全數(shù)據(jù)安全應(yīng)急處置機(jī)制,對(duì)算法濫用、數(shù)據(jù)泄露等行為實(shí)行“零容忍”追責(zé)問(wèn)責(zé)。通過(guò)立法、企業(yè)、監(jiān)管、社會(huì)多維度聯(lián)動(dòng),形成權(quán)責(zé)清晰、監(jiān)管有效、治理協(xié)同的閉環(huán)體系。唯有讓開(kāi)發(fā)者、平臺(tái)、使用者各盡其責(zé),才能讓人工智能技術(shù)在安全的軌道上實(shí)現(xiàn)向善創(chuàng)新。
(來(lái)源:學(xué)習(xí)時(shí)報(bào))
