首頁 >國際 >

天天熱門:生成式AI劃成長紅線

數(shù)據(jù)違規(guī)收集、隱私保護缺位、信息難辨真假……ChatGPT的爆火,也讓AIGC(人工智能生成內(nèi)容)陷入了流量與爭議齊飛的境地,對監(jiān)管的呼吁日漸高漲。4月11日,國家互聯(lián)網(wǎng)信息辦公室就《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱“征求意見稿”)公開征求意見,內(nèi)容的真實性、訓練數(shù)據(jù)的安全性等備受關(guān)注的話題皆在其中。隨著AIGC領域首份政府文件的面世,產(chǎn)業(yè)也有望理順發(fā)展邏輯,告別野蠻生長。

防止生成虛假信息

“凌駕”于海量信息之上,結(jié)合超強的理解和生成能力,ChatGPT以高度“仿真”的回答驚艷了全世界。但在ChatGPT能力升級的過程中,生成的內(nèi)容開始變得真?zhèn)文獪y,治理難度隨之升級,這也成了目前以ChatGPT為代表的AIGC最為詬病的一點。


(資料圖片僅供參考)

對此,征求意見稿明確提出,利用生成式人工智能生成的內(nèi)容應當真實準確,采取措施防止生成虛假信息。根據(jù)征求意見稿,生成式人工智能是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。

數(shù)據(jù)安全是AIGC領域的另一個頑疾。河南澤槿律師事務所主任付建提到,人工智能掌握大量數(shù)據(jù)和信息,但并不能保證數(shù)據(jù)的絕對安全性,一旦出現(xiàn)安全漏洞,再加上技術(shù)不成熟,導致公共利益缺乏有效保障。由于人工智能技術(shù)的程序是開發(fā)人員編寫的,但決策是由機器做出的,如果出現(xiàn)重大失誤造成損害后果,責任誰來承擔仍存在爭議。

為此,在用于AIGC預訓練、優(yōu)化訓練的數(shù)據(jù)方面,征求意見稿也做出了明確的規(guī)范,例如不含有侵犯知識產(chǎn)權(quán)的內(nèi)容,數(shù)據(jù)包含個人信息的,應當征得個人信息主體同意或者符合法律、行政法規(guī)規(guī)定的其他情形,能夠保證數(shù)據(jù)的真實性、準確性、客觀性、多樣性等。

在引起熱議的隱私保護方面,征求意見稿表示,提供者在提供服務過程中,對用戶的輸入信息和使用記錄承擔保護義務。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息。

順暢的反饋機制是AIGC良性發(fā)展的關(guān)鍵一環(huán)。征求意見稿指出,提供者應當建立用戶投訴接收處理機制,及時處置個人關(guān)于更正、刪除、屏蔽其個人信息的請求;發(fā)現(xiàn)、知悉生成的文本、圖片、聲音、視頻等侵害他人肖像權(quán)、名譽權(quán)、個人隱私、商業(yè)秘密,或者不符合本辦法要求時,應當采取措施,停止生成,防止危害持續(xù)。

而對于運行中發(fā)現(xiàn)、用戶舉報的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過濾等措施外,應在3個月內(nèi)通過模型優(yōu)化訓練等方式防止再次生成。

北京卓緯律師事務所合伙人、律師孫志峰認為,征求意見稿明確了網(wǎng)絡安全法、數(shù)據(jù)安全法、個人信息保護法以及《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》等相關(guān)互聯(lián)網(wǎng)規(guī)則在AIGC領域的適用,有利于執(zhí)法尺度的統(tǒng)一,提升服務商和用戶對執(zhí)法預期的判斷。

“同時征求意見稿也明確了提供者有義務根據(jù)有關(guān)部門要求,提供包括訓練數(shù)據(jù)基本情況描述、人工標注規(guī)則及相關(guān)信息,以及基礎算法和技術(shù)體系等,保障用戶知情權(quán),便于日常監(jiān)管,在一定程度上可以緩解當前用戶基于算法等技術(shù)革新的擔憂。”孫志峰稱。

從野蠻生長到規(guī)范發(fā)展

征求意見稿出爐在一個關(guān)鍵的時期:近段時間以來,無論國外還是國內(nèi),AIGC都陷入了巨大的負面輿論旋渦。3月末,意大利個人數(shù)據(jù)保護局宣布禁止使用ChatGPT,此后,德國、加大拿、法國、愛爾蘭等也相繼釋放出類似信號。

在這之前,1000多位學界業(yè)界人士聯(lián)名呼吁叫停AI大模型研究的新聞更是刷屏網(wǎng)絡,其中對于AI系統(tǒng)的擔憂主要集中在兩方面,包括AI可能失控、給人類文明帶來風險,以及AI可能被惡意使用,造成錯誤信息傳播或被用來犯罪。

于國內(nèi)而言,虛假消息的傳播也已經(jīng)開始擾亂人們的視聽。不久前,一封出自ChatGPT之手的“杭州取消限行”的消息一度盛傳。此外,AI繪畫也始終面臨著版權(quán)的爭議。

瑞萊智慧聯(lián)合創(chuàng)始人蕭子豪對北京商報記者分析稱,一方面,ChatGPT大模型成為全球化趨勢,另一方面新技術(shù)之下治理挑戰(zhàn)日益嚴重,以ChatGPT為代表的大模型傳播能力和技術(shù)能力呈現(xiàn)高度的滲透性和擴展性,傳統(tǒng)網(wǎng)絡治理模式失效,在安全風險存在未知與不確定性的情況下,探索新治理路徑成為全球性議題。

“新技術(shù)的發(fā)展,監(jiān)管一定是落后于發(fā)展的。”蕭子豪表示,相比于傳統(tǒng)互聯(lián)網(wǎng)技術(shù),對于AIGC的監(jiān)管已經(jīng)較早地被關(guān)注和提上議程。針對具體的安全問題,需要我們在發(fā)展技術(shù)的同時,對于AIGC應用邊界加以管控,采取必要的控制。

在這之前,蕭子豪就曾建議政策層面建立起對ChatGPT等AI生成內(nèi)容的管理法規(guī),對利用AI生成和傳播不實不良內(nèi)容進行規(guī)避,同時加強治理工具的開發(fā),通過研發(fā)技術(shù)手段來識別AI生成內(nèi)容,這不管對于內(nèi)容檢測還是作品確權(quán),都是重要前提。

商務部研究院電商所副研究員洪勇評價稱,征求意見稿為AIGC產(chǎn)業(yè)提供了一套明確的法規(guī)框架,有助于規(guī)范整個產(chǎn)業(yè)的健康發(fā)展,提升行業(yè)標準。例如征求意見稿強調(diào)了對個人信息和隱私的保護,規(guī)定了對于涉及個人信息的處理和保護的要求,有助于提升用戶對AIGC產(chǎn)業(yè)的信任。

關(guān)鍵詞:

責任編輯:Rex_12

推薦閱讀