(資料圖)
近日,在社交平臺Reddit和推特上,有用戶分享了在聊天機器人ChatGPT上看到了不屬于自己的聊天記錄。ChatGPT的企業負責人表示,ChatGPT近日被發現存在漏洞,用戶可以看到其他用戶與ChatGPT對話的標題。
英國廣播電視公司(BBC)3月23日報道稱,自20日起,有ChatGPT用戶就開始看到他們的歷史記錄中出現了自己不曾與ChatGPT進行過的對話標題。
自去年11月推出以來,已有數百萬人使用ChatGPT起草消息、創作歌曲甚至編寫代碼。與ChatGPT的對話都存儲在用戶的聊天記錄欄中,以便重新訪問。
OpenAI首席執行官山姆·奧特曼表示,對于這個漏洞,OpenAI“感覺很糟糕”,很快就會執行“技術事后分析”。21日,該公司告訴彭博社,它已在20日短暫禁用ChatGPT以修復錯誤,且用戶無法訪問其他用戶除標題以外的實際聊天記錄。
不過,該漏洞已經引起了ChatGPT用戶的擔憂,他們擔心私人信息被泄露。
報道稱,這個漏洞似乎表明OpenAI可以訪問用戶的聊天記錄。該公司的隱私政策顯示,在個人身份信息被刪除后,相關的用戶數據,例如提示和響應,可能會被用于進一步的模型訓練。
未來今日研究所(Future Today Institute)負責人兼紐約大學商學教授艾米·韋伯(Amy Webb)向BBC表示,人工智能在未來 10 年可能有兩個發展方向:在樂觀情況下,人工智能的發展側重于公共利益,系統設計透明且個人能夠選擇是否將他們在互聯網上的公開信息納入AI知識庫。該技術作為一種工具來預測用戶的需求,并幫助完成幾乎任何任務。
而災難性情況則為,未來數據隱私將變得更少,更多權力集中在少數幾個公司,彼時人工智能或錯誤預測用戶需求,或者扼制用戶選擇。
韋伯認為,樂觀情況只有20%的可能會出現。她告訴 BBC,人工智能的發展方向最終在很大程度上取決于公司。他們這樣做是否透明?是否揭示并監督聊天機器人的信息來源?另一個因素是政府,它是否可以迅速采取行動以建立法律保障來指導技術發展并防止其被濫用。
“然而,從政府與社交平臺公司的過往可見,這并不樂觀。”韋伯說道。
標簽: