韓國(guó)生成式人工智能治理新規(guī)則
文 | 蘇州大學(xué)王健法學(xué)院 尹文平 樊祜璽
2025年8月6日,韓國(guó)個(gè)人信息保護(hù)委員會(huì)在首爾召開“生成式人工智能與隱私”公開研討會(huì),并正式發(fā)布《生成式人工智能開發(fā)和使用的個(gè)人信息處理指南》(以下簡(jiǎn)稱《指南》)。這是韓國(guó)首次針對(duì)生成式人工智能全生命周期個(gè)人信息處理進(jìn)行的系統(tǒng)性規(guī)范,為生成式人工智能開發(fā)和使用過程中的個(gè)人信息安全處理提供了指引。
《指南》展現(xiàn)了韓國(guó)在生成式人工智能個(gè)人信息保護(hù)監(jiān)管領(lǐng)域的政策前瞻性,其內(nèi)容與歐洲數(shù)據(jù)保護(hù)委員會(huì)發(fā)布的《人工智能隱私風(fēng)險(xiǎn)與緩解措施—大型語言模型》、美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布的《隱私框架》以及英國(guó)政府發(fā)布的《人工智能手冊(cè)》中的隱私治理內(nèi)容相呼應(yīng),反映出韓國(guó)與全球人工智能治理的聯(lián)系和一致性。
發(fā)布背景
生成式人工智能技術(shù)的高速發(fā)展,為全球科技創(chuàng)新與經(jīng)濟(jì)增長(zhǎng)提供了強(qiáng)大動(dòng)力。生成式人工智能發(fā)展的根基在于對(duì)海量數(shù)據(jù)的收集和處理。隨著生成式人工智能應(yīng)用領(lǐng)域和范圍的擴(kuò)大,其帶來的個(gè)人信息處理風(fēng)險(xiǎn)愈發(fā)突出。特別是個(gè)人信息的未授權(quán)采集、濫用和泄露等問題屢現(xiàn),這可能使公眾暴露于數(shù)據(jù)監(jiān)視之下,使個(gè)體的人格、隱私與主體性遭受嚴(yán)重威脅。因此,如何通過明確的規(guī)則實(shí)現(xiàn)技術(shù)進(jìn)步與個(gè)人信息保護(hù)之間的平衡,已成為各國(guó)人工智能監(jiān)管部門共同面臨的重要課題。
韓國(guó)作為數(shù)據(jù)資源大國(guó),其醫(yī)療、公共、金融等領(lǐng)域的數(shù)據(jù)已成為驅(qū)動(dòng)生成式人工智能發(fā)展的關(guān)鍵材料。隨著生成式人工智能帶來的侵犯?jìng)€(gè)人信息風(fēng)險(xiǎn)加劇,韓國(guó)公眾和業(yè)界對(duì)生成式人工智能開發(fā)和使用過程中的個(gè)人信息保護(hù)需求愈發(fā)迫切。在此背景下,韓國(guó)制定了《指南》,旨在回應(yīng)個(gè)人信息可以合法用于人工智能訓(xùn)練的標(biāo)準(zhǔn)、如何在生成式人工智能開發(fā)利用階段建立個(gè)人信息安全管理體系等問題。
主要內(nèi)容
《指南》以生成式人工智能開發(fā)和使用的全生命周期管理思路,將生成式人工智能開發(fā)和使用劃分為目的設(shè)定、戰(zhàn)略制定、人工智能的訓(xùn)練與開發(fā)以及系統(tǒng)應(yīng)用與管理四個(gè)階段,并在各階段分環(huán)節(jié)明確了個(gè)人信息保護(hù)法規(guī)政策要求和具體保護(hù)措施建議,為平衡技術(shù)發(fā)展與隱私保護(hù)提供了基本框架。這對(duì)于各國(guó)解決生成式人工智能開發(fā)和使用全過程中個(gè)人信息保護(hù)法規(guī)政策適用的模糊性問題,提高不同類型生成式人工智能服務(wù)提供企業(yè)或其他組織機(jī)構(gòu)的自主守法能力等具有重要作用。
《指南》還詳細(xì)列舉了主要的法規(guī)政策和典型案例,并以附件形式提供了按人工智能開發(fā)和使用階段分類的隱私注意事項(xiàng)示例表。但《指南》旨在提高與生成式人工智能開發(fā)、使用相關(guān)的個(gè)人信息保護(hù)合規(guī)性,并不涉及其他法律法規(guī)規(guī)定的義務(wù)。
·
規(guī)范人工智能收集和處理個(gè)人信息的目的
·
《指南》提出生成式人工智能在開發(fā)和使用過程中收集和處理個(gè)人信息的目的必須明確、具體以及行為必須合法。
在目的明確和具體方面,《指南》以案例指出開發(fā)和使用單純以統(tǒng)計(jì)目的或基于未來人工智能的學(xué)習(xí)分析目的長(zhǎng)時(shí)間存儲(chǔ)學(xué)生的學(xué)習(xí)時(shí)間、成績(jī)水平、進(jìn)度率等信息的生成式人工智能,違反了《個(gè)人信息保護(hù)法》第3條第1款確立的個(gè)人信息處理者必須明確個(gè)人信息處理目的的個(gè)人信息保護(hù)原則。
在行為合法方面,《指南》建議基于明確和具體目的的個(gè)人信息處理活動(dòng)應(yīng)有相應(yīng)法律依據(jù)?!吨改稀穼⑸墒饺斯ぶ悄荛_發(fā)和使用的個(gè)人信息處理類型分為已經(jīng)公開的個(gè)人信息、已經(jīng)收集的用戶個(gè)人信息兩類。針對(duì)已經(jīng)公開的個(gè)人信息,在難以獲取信息主體同意的前提下,可根據(jù)《個(gè)人信息保護(hù)法》第15條第1款第6項(xiàng)“正當(dāng)利益”條款,從個(gè)人信息處理目的正當(dāng)性、處理必要性以及處理者與被處理者利益衡量三個(gè)方面審查生成式人工智能技術(shù)對(duì)已公開個(gè)人信息處理的合法性。針對(duì)已經(jīng)收集的用戶個(gè)人信息,若企業(yè)或其他組織機(jī)構(gòu)計(jì)劃將這類個(gè)人信息重新用于人工智能訓(xùn)練,需結(jié)合個(gè)人信息的原始收集目的和人工智能服務(wù)的相關(guān)性進(jìn)行自我評(píng)估,并判斷新的個(gè)人信息處理目的是否屬于目的內(nèi)使用、追加使用或獨(dú)立目的使用。根據(jù)不同的目的類型,在《個(gè)人信息保護(hù)法》中選擇對(duì)應(yīng)的條款依據(jù)。此外,針對(duì)個(gè)人敏感信息或唯一識(shí)別信息,信息處理者需要獲得信息主體的單獨(dú)同意或明確的法律授權(quán)。
·
制定人工智能開發(fā)和使用的隱私戰(zhàn)略
·
《指南》建議生成式人工智能開發(fā)和使用的戰(zhàn)略制定必須充分考慮常見的隱私策略,將隱私設(shè)計(jì)、隱私影響評(píng)估融入生成式人工智能開發(fā)和使用的戰(zhàn)略制定中。
《指南》明確了企業(yè)或其他組織機(jī)構(gòu)選擇不同類型大語言模型開發(fā)和使用的隱私風(fēng)險(xiǎn)識(shí)別和行動(dòng)要求。對(duì)于提供基于服務(wù)型大語言模型的人工智能服務(wù)企業(yè)或其他組織機(jī)構(gòu),需要通過許可協(xié)議、使用條款等來明確個(gè)人信息處理的目的、方式和范圍。同時(shí),《指南》建議優(yōu)先選擇企業(yè)API許可證,以避免個(gè)人API服務(wù)默認(rèn)輸入數(shù)據(jù)的可訓(xùn)練性。企業(yè)或其他組織機(jī)構(gòu)還要注重審查數(shù)據(jù)跨境流動(dòng)是否符合法律要求。此外,以開源大語言模型為主要對(duì)象進(jìn)行模型二次開發(fā)的個(gè)人信息處理者,要特別注意初始訓(xùn)練數(shù)據(jù)集可能存在的個(gè)人信息侵權(quán)風(fēng)險(xiǎn),并在后續(xù)模型的開發(fā)和使用過程中對(duì)個(gè)人信息風(fēng)險(xiǎn)進(jìn)行識(shí)別、處置和預(yù)防;自主開發(fā)大語言模型的企業(yè)或其他組織機(jī)構(gòu),需要在人工智能開發(fā)和使用的全生命周期(包括但不限于數(shù)據(jù)的預(yù)訓(xùn)練、微調(diào)、部署和運(yùn)營(yíng)、后期管理等階段)識(shí)別個(gè)人信息風(fēng)險(xiǎn)因素,并采取相關(guān)措施降低風(fēng)險(xiǎn)。
·
強(qiáng)化模型訓(xùn)練和開發(fā)的隱私保障
·
生成式人工智能具有將訓(xùn)練數(shù)據(jù)集中包含的信息以一種永久記憶的形式內(nèi)化的技術(shù)特性,這可能導(dǎo)致原始信息直接暴露在輸出結(jié)果中,或被用于敏感信息的推理等場(chǎng)景,直接增加個(gè)人信息主體權(quán)益受到侵害的風(fēng)險(xiǎn)?!吨改稀方ㄗh從生成式人工智能訓(xùn)練和開發(fā)階段的數(shù)據(jù)、模型和系統(tǒng)三個(gè)層面考慮技術(shù)性及管理性的隱私安全措施。
在數(shù)據(jù)層面,《指南》建議從系統(tǒng)應(yīng)對(duì)數(shù)據(jù)破壞活動(dòng)、排除明確表示拒絕抓取的內(nèi)容、數(shù)據(jù)集的假名或匿名化處理、強(qiáng)制刪除個(gè)人身份識(shí)別信息以及使用隱私增強(qiáng)技術(shù)等方面來保障個(gè)人信息安全。在模型層面,《指南》建議通過模型微調(diào)、對(duì)齊等技術(shù)以及防御隱私攻擊來降低個(gè)人信息風(fēng)險(xiǎn)。在系統(tǒng)層面,《指南》建議通過嚴(yán)格控制訪問權(quán)限、應(yīng)用敏感信息過濾器和檢索增強(qiáng)技術(shù)以及使用人工智能代理來減少個(gè)人信息風(fēng)險(xiǎn)。
由于生成式人工智能訓(xùn)練和部署具有反復(fù)性,《指南》還建議企業(yè)或其他組織機(jī)構(gòu)在生成式人工智能訓(xùn)練與開發(fā)過程中建立一個(gè)持續(xù)的隱私評(píng)估體系。
·
防范系統(tǒng)應(yīng)用與管理的個(gè)人信息風(fēng)險(xiǎn)
·
系統(tǒng)應(yīng)用與管理是生成式人工智能系統(tǒng)在完成訓(xùn)練和開發(fā)后,部署、應(yīng)用于實(shí)際場(chǎng)景并正式提供服務(wù)的最后階段。針對(duì)這一階段,《指南》將風(fēng)險(xiǎn)管理制度細(xì)化為部署前與部署后兩部分。
在部署前階段,《指南》建議:一方面,重點(diǎn)核驗(yàn)人工智能輸出結(jié)果的準(zhǔn)確性,測(cè)試其抵御各類繞過安全措施行為的能力,同時(shí)評(píng)估學(xué)習(xí)數(shù)據(jù)存在泄露風(fēng)險(xiǎn)的可能性。所有檢查過程及結(jié)果均需形成規(guī)范文檔,為后續(xù)部署提供測(cè)試依據(jù)。另一方面,依據(jù)測(cè)試識(shí)別的風(fēng)險(xiǎn)制定并公開可接受使用政策,明確服務(wù)的使用目的與禁止行為。
進(jìn)入部署后階段,《指南》建議企業(yè)或其他組織機(jī)構(gòu)在實(shí)施常態(tài)化個(gè)人信息風(fēng)險(xiǎn)監(jiān)測(cè)的基礎(chǔ)上,著重構(gòu)建信息主體的權(quán)利保障機(jī)制。受當(dāng)前技術(shù)發(fā)展水平所限,信息主體依《個(gè)人信息保護(hù)法》享有的查閱、更正、刪除等傳統(tǒng)權(quán)利的實(shí)現(xiàn)可能面臨一定限制。即便如此,生成式人工智能服務(wù)提供者仍需向信息主體清晰說明限制原因,并通過輸出過濾等替代性技術(shù)手段,切實(shí)回應(yīng)并滿足信息主體的合理訴求?!吨改稀愤€建議企業(yè)或其他組織機(jī)構(gòu)保障信息主體對(duì)生成式人工智能系統(tǒng)自動(dòng)化決策的拒絕權(quán)、解釋請(qǐng)求權(quán)及審查請(qǐng)求權(quán);在相關(guān)文件中清晰公開人工智能訓(xùn)練數(shù)據(jù)的收集、來源、處理目的及過程以確保透明度;對(duì)人工智能代理則要明確告知對(duì)話歷史等訓(xùn)練數(shù)據(jù)的利用、向第三方提供、保管銷毀及過濾標(biāo)準(zhǔn)等情況,并預(yù)留充足時(shí)間供用戶選擇是否退出。
·
構(gòu)建人工智能隱私治理體系
·
隨著生成式人工智能數(shù)據(jù)處理流程日趨復(fù)雜,風(fēng)險(xiǎn)管理的重要性愈發(fā)凸顯。除四階段需要考慮的個(gè)人信息保護(hù)事項(xiàng)外,《指南》還明確指出,建立企業(yè)和組織內(nèi)部的人工智能隱私治理體系至關(guān)重要,尤其是需要以個(gè)人信息保護(hù)負(fù)責(zé)人為核心,構(gòu)建形成內(nèi)部管理體系。同時(shí)建議通過個(gè)人信息影響評(píng)估、紅線管理等方式,對(duì)隱私風(fēng)險(xiǎn)開展持續(xù)評(píng)估。
《指南》提出,個(gè)人信息保護(hù)負(fù)責(zé)人應(yīng)從人工智能的規(guī)劃、開發(fā)初期就主動(dòng)介入,全面掌握個(gè)人信息處理的相關(guān)情況,并及時(shí)向相關(guān)部門反饋,進(jìn)而建立起能將個(gè)人信息保護(hù)原則內(nèi)化為生成式人工智能服務(wù)的隱私治理體系。
(來源:人民法院報(bào))
