21世紀經濟報道記者鐘雨欣徐倩宜
南方財經全媒體記者馮戀閣北京、廣州報道
生成式AI再次“引爆”全球輿論關注。3月15日凌晨,OpenAI 發布多模態預訓練大模型 GPT-4.據官方介紹,GPT-4支持圖像和文本輸入,以文本形式輸出;文字輸入限制提升,能處理超過25000個單詞的文本;更具創造力和準確性。
(資料圖)
AI浪潮席卷之下,國內大廠奮起直追,一天后,百度發布國內首款對標ChatGPT的產品“文心一言”,并在文學創作、商業文案創作、數理推算、中文理解、多模態生成等多個場景中展現了產品能力。
毫無疑問,AIGC(人工智能生成內容)正在給人類社會帶來一場深刻的變革。而剝開其令人眼花繚亂的華麗外表,運行的核心離不開海量的數據支持。多位受訪專家表示,ChatGPT等AI技術在數據收集、處理、輸出等各環節都可能存在伴生風險,如未經授權收集信息、提供虛假信息、侵害個人隱私等等。監管方和相關企業亟需從制度和技術方面共同發力,加強AIGC領域數據安全保護。
數據泄露、隱私侵害成隱憂
ChatGPT通過大量文本語料庫進行訓練,其深度學習能力很大程度上依賴于背后的數據。21世紀經濟報道記者梳理發現,出于對信息泄露的擔憂,目前已有多家公司和機構發布“ChatGPT禁令”。
近日,軟銀、日立等日本企業已開始限制在商業運營中使用ChatGPT等互動人工智能服務。軟銀就使用ChatGPT和其他類似應用警告員工稱:“不要輸入公司的可識別信息或機密數據”。日立則將考慮制定新的道德規則,以規范交互式人工智能的使用。
今年2月,摩根大通成為第一家在工作場所限制使用ChatGPT的華爾街投行?;ㄆ旒瘓F和高盛集團緊隨其后,前者禁止員工在整個公司范圍內訪問ChatGPT,后者則限制員工在交易大廳使用該產品。而在更早些時候,亞馬遜和微軟為防備員工在使用ChatGPT的過程中泄密,禁止他們向其分享敏感數據,因為這些信息可能會被用作進一步迭代的訓練數據。
北京師范大學法學院博士生導師、中國互聯網協會研究中心副主任吳沈括在接受21世紀經濟報道記者采訪時表示,ChatGPT作為大語言模型,它的核心邏輯事實上是海量數據的收集、加工、處理和運算結果的輸出?!翱偟膩碚f,這幾個環節可能會在技術要素、組織管理、數字內容三個方面伴生相關風險?!?/p>
北京航空航天大學法學院副教授趙精武分析,在數據安全和個人信息保護領域,ChatGPT等AI技術的風險主要表現為用戶輸入的數據存在泄露風險,倘若用戶為了完成工作任務,輸入了敏感個人信息、商業秘密等信息,這些信息有可能被AI服務提供者留存。
南開大學法學院副院長、中國新一代人工智能發展戰略研究院特約研究員陳兵教授進一步指出,根據ChatGPT相關隱私政策可以看到,用戶在使用ChatGPT時,會被采集有關用戶訪問、使用或互動的信息。這意味著,包含用戶隱私以及用戶對話的數據可能會被OpenAI采集并存儲在其數據中心。
“雖然,ChatGPT表示,存儲訓練和運行模型所需的數據會嚴格遵守隱私和安全政策,但在未來可能出現網絡攻擊和數據爬取等現象,仍存在不可忽視的數據安全隱患。特別是涉及國家核心數據、地方和行業重要數據以及個人隱私數據的抓取、處理以及合成使用等過程,需平衡數據安全保護與流動共享。”陳兵說。
除了數據與隱私泄露隱患外,同濟大學法學院副教授、上海市人工智能社會治理協同創新中心研究員陳吉棟指出,AI技術還存在著數據偏見、虛假信息、模型的難解釋性等問題,可能會導致誤解和不信任。
大成律師事務所高級合伙人肖颯則強調了AI技術“文本數據挖掘功能”潛藏的合規風險。她表示,該功能不僅可以“主動”搜集和存儲數據,并且能在不斷的數據處理過程中形成自己的處理模式。若其所搜集的數據(含個人信息)并未取得合法授權,相關的處理活動就可能涉嫌違法違規。
國內企業引入ChatGPT需注意數據跨境合規
隨著生成式AI受到科技界“熱捧”,不少企業試圖在自身業務中引入和使用ChatGPT服務。而根據ChatGPT運作原理,用戶在輸入端提問后,信息會傳輸到OpenAI服務器上進行運算,隨后得到相應回答。
記者在手機應用商店搜索發現,不少App打著“AI聊天機器人”“基于GPT提供AI寫作”的口號提供服務,有的直稱“可接入ChatGPT接口”。
肖颯指出,由于ChatGPT本身具備收集、存儲和使用數據的功能,且用戶與其對話的數據也會被記錄,國內企業若引入ChatGPT服務,可能被認定為數據出境活動。
她介紹,在數據跨境合規方面,我國已經初步形成了相關的法律體系,主要存在三種合規出境方式,即安全評估、個人信息保護認證和個人信息出境標準合同。“相關企業必須依據《數據安全法》《個人信息保護法》等相關規定,管理數據出境活動,依法辦事?!?/strong>
在趙精武看來,如果國內企業試圖引入ChatGPT服務,其合規要點在于:一是輸入輸出數據應當留存于境內;二是需要經由工信部等主管部門審核,獲得相應的信息服務資質認證;三是若對用戶個人信息權益產生實質性影響,需要進行個人信息安全影響評估;四是如果國內企業屬于關鍵信息基礎設施運營者,其引入ChatGPT服務還需要進行網絡安全審查。
另外,在執法方面,陳兵表示,對于AIGC涉及的數據跨境流通問題,應當在考慮國際通行標準和做法的基礎上,制定合理的跨境數據安全執法規則,加強與其他國家和地區規則的銜接,促進數據安全跨境執法合作。
加強全流程數據合規管理
面對前述潛藏風險,監管方和相關企業如何從制度和技術層面加強AIGC領域的數據安全保護?
吳沈括建議監管側關注三方面規則?!耙皇鞘袌龅臏嗜牒唾Y質規則,確保優良主體進入該市場領域。二是業務監管規則,確保主體的運行符合既定的監管框架要求。三是責任規則,要劃定行為紅線、責任紅線,明確各方主體的責任范圍,規范市場秩序?!?/p>
“相較于直接針對用戶終端采取限制使用等監管措施,明確要求AI技術研發企業遵循科技倫理原則會更具成效,因為這些企業能夠在技術層面限定用戶的使用范圍?!壁w精武說。
肖颯表示,對于監管方而言,針對AI這種獨特的數據處理方式,最好在現行法律體系之下制定特別的規章制度,以規制企業運用AI各類場景下的數據處理行為。
陳兵認為,在制度層面,需要結合AIGC底層技術所需數據的特性和作用,建立健全數據分類分級保護制度。例如,可根據數據主體、數據處理程度、數據權利屬性等方面對訓練數據集中的數據進行分類管理,根據數據對于數據權利主體的價值,以及數據一旦遭到篡改、破壞等對數據主體的危害程度進行分級。在數據分類分級的基礎上,建立與數據類型和安全級別相配套的數據保護標準與共享機制。
目光投向企業,陳兵建議加快推動“隱私計算”技術在AIGC領域的應用。“這類技術能夠讓多個數據擁有者在不暴露數據本身的前提下,通過共享SDK或者開放SDK權限的方式,在進行數據的共享、互通、計算、建模,在確保AIGC能夠正常提供服務的同時,保證數據不泄露給其他參與方?!?/p>
此外,多位專家在采訪中強調了“全流程合規管理”的重要性。
“企業首先應關注其所運用的數據資源是否符合法律法規要求,其次要確保算法和模型運作的全流程合規,另外,企業的創新研發應最大限度地滿足社會公眾的倫理期待?!眳巧蚶ㄕf。
陳吉棟建議企業從數據收集、生產到應用的全生命周期展開制度設計?!巴瑫r,技術是法律監管的核心工具,能夠確保監管的穿透性,需要用技術守住數據合規底線?!?/p>
肖颯也表達了相似看法。她指出,企業應制定內部管理規范,設立相關的監督部門,對AI技術應用場景的各個環節進行數據監督,確保數據來源合法、處理合法、輸出合法,從而保障自身的合規性。
(文章來源:21世紀經濟報道)
標簽: