亚洲高清一区二区三区-亚洲高清一区二区三区四区-亚洲高清中文字幕一区二区三区-亚洲光棍天堂-成人免费视频一区-成人免费视频一区二区三区

環球觀察:專家熱議科技倫理:AI不該以人為中心 數字人不能成為主體

2022-09-08 22:54:26

自動駕駛、人臉識別、基因編輯、腦機接口......毫無疑問,這是一個科技高速發展的時代,高速發展的科學技術帶動了工業、服務業等多個領域的快速轉型,也使得技術應用的界限愈加模糊,人臉識別帶來的銀行財產糾紛、虛擬人的知識產權歸屬、數據采集涉及到的隱私權問題等等諸多爭議也一并出現。

而這些爭議就與倫理相關原則有關,如涉及到隱私保護的數據倫理,涉及到透明性問題的算法倫理,以及機器服務人類時涉及到的“保護人類還是聽從命令”的道德抉擇。可以說,只有更好地理解和規范科技倫理,才能使科技長久地發展下去,并真正為人類帶來福祉。


【資料圖】

9月7日,在2022中國互聯網法治大會的分論壇“合規科技——科技倫理治理分論壇”上,來自中國信通院、中科院的學者,以及阿里、百度、科大訊飛等多名企業高管對上述問題進行了討論。有專家表示,科技中的倫理問題并不等同于底線,也有專家認為,機器人和數字人絕對不能作為主體。

倫理不是底線,人工智能不應以人類為中心

“首先,倫理講的肯定不是底線問題。”中國科學院大學自動化研究所研究員、人工智能倫理與治理研究中心主任曾毅這樣表示。

他認為,人工智能的發展實際上就是倫理和治理的問題,倫理討論會同時包括“應該做什么”和“不應該做什么”兩個問題,而底線只會講“不應該做什么”,但現在對于應該往哪個方向走的問題講得太少,所以當有觸碰底線的情況發生,就不得不去講不應該做什么。

在曾毅看來,倫理和治理不是監管,要把倫理和治理變成服務,才能真正推動人工智能產品和產業的創新,幫助企業——特別是中小企業推動在倫理治理方面的發展,使人工智能能夠“負責任且可持續”地發展。

并且,由于現在人工智能的概念已經泛化,出現了諸如大數據、虛擬現實、自動控制、腦機接口等多個“外延”應用,因此,曾毅認為應該特別規范這些外延的野蠻生長。

他舉了一個隱私方面的例子,比如現在大眾都耳熟能詳的人臉識別技術在有些國家是被禁用的,但這并不意味著這樣的國家就更負責任,因為除了眾所皆知的“人臉識別”之外,還有步態識別、虹膜識別、聲紋識別等手段,也能達到相同的目的。在這個過程中,最重要的是在使用中讓用戶對相關隱私問題真正知情,而非禁用之后再用其他方式去做替代。

而且,曾毅及團隊通過對1000萬篇計算機科學及人工智能領域的英文文獻進行數據分析,還發現人工智能在不同領域展現出了不同的可持續發展傾向,其中前三位分別為工業創新、優質教育和健康。

為何是這三個領域?“原因很簡單,因為它們都賺錢。” 曾毅說。

他補充解釋,像是性別平等、清潔能源、水資源等等問題是社會政府非常關注的,但在商業價值上卻沒那么強,因此科技也就并不關注它們。也正因如此,才應該倡導產學研在政府的引導下去賦能。

那么對于人工智能本身來說呢?曾毅的觀點是:既不能讓人工智能構建下的數字人、虛擬人成為主體,也不要完全以人類為中心,

“如果從哲學的觀點來講,人工智能是人工的僵尸,它能夠做信息處理,但沒有真正地理解,更沒有自我的視角,也沒有推己及人,本質上它是一個智能信息處理工具,你把什么樣的規則灌輸給它,它就會變成什么樣。”曾毅表示。

至于為什么“不要完全以人類為中心”,曾毅認為在科技高速發展的現代社會,人類與不同生命個體有著高度的關聯,所以應該是“以生態為中心”。

AI正在模仿法律意義上的“主體”

對于“人工智能應該以整個生態為研究中心”的看法,北京理工大學法學院副教授,智能科技風險法律防控工信部重點實驗室執行主任陳姿含從法律角度提出了自己的看法。

“法學在解決問題的時候,首先要進行人和客觀世界的劃分,那么智能算法可能產生的倫理問題,就是由人工智能沖擊了人與客觀世界的邊界之后帶來的。”陳姿含說。

什么意思呢?像是性別、宗教信息等等數據,在法律中會將其視為個人敏感信息或公共數據,用其保證公平和爭議,而智能算法不僅會輔助法律去規制對信息不必要的利用行為,還會在其間建立一種關聯,同時挖掘更多的關聯性信息作為替代。因此,這就有可能產生對既有的秩序、公平和正義的沖擊。

在陳姿含看來,解決人工智能的倫理問題有兩個非常重要的思考點:

首先是解決人工智能算法相關決策,建立具體法律的制度性保障。這本質上也是安全問題,也是科技探求最為重要的出發點,解決了安全需求,知道如何用法律對自己和事件進行保護,才能夠探討其他制度性構建。

其次是公共算法決策對制度的整體性沖擊,尤其要思考人類的主體性危機。陳姿含表示,大眾現在已經建立起對國家和法律的一種信任,但如果將決策依據調整為公共算法,誰是治理主體,算法又有沒有可能導致不公,存不存在權力的外包等等新問題就會出現。

“主體性危機”是什么?陳姿含從兩個方面解釋:

首先人工智能或者算法模擬了人作為法律主題的物理性基礎,比如像是AlphaGo這樣的AI就模仿了人類的理性思維,擁有強大的計算能力。

其次算法復制了“法律主體”的擬制過程。法律上人的概念與生物學上的人是相互區別的,法律劃定的個人的社會關系是指一個人能夠控制的與個體相關的信息,比如身體、物理空間以及隱私,這些信息不僅可以在個體組成的社會網絡中進行有效連接,還能夠刺破公共區域,介入到私人領域中去而。但很多時候,人工智能恰好需要這些信息才能做到非常穩定的決策,那么這時,人的心智在某種程度上就被還原為了客觀的物質。

現在,人工智能律師、人工智能警察等等都在進入人類的生活,作為一個法律學者,陳姿含認為,這都使得法律主體的一元論受到了挑戰,因此這時就需要思考,算法、人工智能、數字人到底是服務于人類,還是在決定人類。

“事實上,法律上將人類劃分社會契約的主體,并不是因為人類較之于以往的生物多么的優秀,而是在強調人都是理性的,縱然在現實生活中有千差萬別,也應該受到平等的保護。但差異化定價、個性化歧視等算法則加劇了人類差別的挖掘。而對于我們人類來說,應當是以人作為出發點,并且以保障個體權利為最終歸宿。”陳姿含說。

(文章來源:南方都市報)

標簽:

關閉
新聞速遞
主站蜘蛛池模板: 免费观看呢日本天堂视频 | 免费一级毛片在线视频观看 | 在线视频不卡国产在线视频不卡 | 高清不卡日本v在线二区 | 成人a在线观看 | 国产精品嫩草影院88v | 美女黑丝网站 | 一级录像免费录像 | 日韩黄色大片免费看 | 看特级毛片 | 4138殇情影院理论片午夜 | 久久九九综合 | 天天做天天操 | 久久亚洲欧美成人精品 | 羞羞的影院| 中文字幕一区二区在线播放 | 亚洲第一天堂无码专区 | 日本精品中文字幕在线播放 | 久久精品国产精品亚洲综合 | 欧美在线国产 | 中文字幕亚洲 综合久久 | 国产精品成人免费视频 | 黄色网址免费观看视频 | 一级做a爰片久久毛片免费看 | 久久精品国产99国产精偷 | 国产精品99久久久久久董美香 | 最近高清无吗免费看 | 污黄视频在线看 | 免费黄色毛片 | 在线观看久草 | 日韩免费精品一级毛片 | 天堂最新资源在线 | 日本视频三区 | 欧美性猛交xxxx免费看蜜桃 | 天天干干干 | 日本18网站| 欧美精品国产一区二区 | 97人人爽 | 午夜人体视频 | 亚洲爆乳无码一区二区三区 | 国产精品二区页在线播放 |