自動駕駛、人臉識別、基因編輯、腦機接口......毫無疑問,這是一個科技高速發(fā)展的時代,高速發(fā)展的科學技術帶動了工業(yè)、服務業(yè)等多個領域的快速轉型,也使得技術應用的界限愈加模糊,人臉識別帶來的銀行財產糾紛、虛擬人的知識產權歸屬、數(shù)據采集涉及到的隱私權問題等等諸多爭議也一并出現(xiàn)。
而這些爭議就與倫理相關原則有關,如涉及到隱私保護的數(shù)據倫理,涉及到透明性問題的算法倫理,以及機器服務人類時涉及到的“保護人類還是聽從命令”的道德抉擇??梢哉f,只有更好地理解和規(guī)范科技倫理,才能使科技長久地發(fā)展下去,并真正為人類帶來福祉。
【資料圖】
9月7日,在2022中國互聯(lián)網法治大會的分論壇“合規(guī)科技——科技倫理治理分論壇”上,來自中國信通院、中科院的學者,以及阿里、百度、科大訊飛等多名企業(yè)高管對上述問題進行了討論。有專家表示,科技中的倫理問題并不等同于底線,也有專家認為,機器人和數(shù)字人絕對不能作為主體。
倫理不是底線,人工智能不應以人類為中心
“首先,倫理講的肯定不是底線問題。”中國科學院大學自動化研究所研究員、人工智能倫理與治理研究中心主任曾毅這樣表示。
他認為,人工智能的發(fā)展實際上就是倫理和治理的問題,倫理討論會同時包括“應該做什么”和“不應該做什么”兩個問題,而底線只會講“不應該做什么”,但現(xiàn)在對于應該往哪個方向走的問題講得太少,所以當有觸碰底線的情況發(fā)生,就不得不去講不應該做什么。
在曾毅看來,倫理和治理不是監(jiān)管,要把倫理和治理變成服務,才能真正推動人工智能產品和產業(yè)的創(chuàng)新,幫助企業(yè)——特別是中小企業(yè)推動在倫理治理方面的發(fā)展,使人工智能能夠“負責任且可持續(xù)”地發(fā)展。
并且,由于現(xiàn)在人工智能的概念已經泛化,出現(xiàn)了諸如大數(shù)據、虛擬現(xiàn)實、自動控制、腦機接口等多個“外延”應用,因此,曾毅認為應該特別規(guī)范這些外延的野蠻生長。
他舉了一個隱私方面的例子,比如現(xiàn)在大眾都耳熟能詳?shù)娜四樧R別技術在有些國家是被禁用的,但這并不意味著這樣的國家就更負責任,因為除了眾所皆知的“人臉識別”之外,還有步態(tài)識別、虹膜識別、聲紋識別等手段,也能達到相同的目的。在這個過程中,最重要的是在使用中讓用戶對相關隱私問題真正知情,而非禁用之后再用其他方式去做替代。
而且,曾毅及團隊通過對1000萬篇計算機科學及人工智能領域的英文文獻進行數(shù)據分析,還發(fā)現(xiàn)人工智能在不同領域展現(xiàn)出了不同的可持續(xù)發(fā)展傾向,其中前三位分別為工業(yè)創(chuàng)新、優(yōu)質教育和健康。
為何是這三個領域?“原因很簡單,因為它們都賺錢。” 曾毅說。
他補充解釋,像是性別平等、清潔能源、水資源等等問題是社會政府非常關注的,但在商業(yè)價值上卻沒那么強,因此科技也就并不關注它們。也正因如此,才應該倡導產學研在政府的引導下去賦能。
那么對于人工智能本身來說呢?曾毅的觀點是:既不能讓人工智能構建下的數(shù)字人、虛擬人成為主體,也不要完全以人類為中心,
“如果從哲學的觀點來講,人工智能是人工的僵尸,它能夠做信息處理,但沒有真正地理解,更沒有自我的視角,也沒有推己及人,本質上它是一個智能信息處理工具,你把什么樣的規(guī)則灌輸給它,它就會變成什么樣?!痹惚硎?。
至于為什么“不要完全以人類為中心”,曾毅認為在科技高速發(fā)展的現(xiàn)代社會,人類與不同生命個體有著高度的關聯(lián),所以應該是“以生態(tài)為中心”。
AI正在模仿法律意義上的“主體”
對于“人工智能應該以整個生態(tài)為研究中心”的看法,北京理工大學法學院副教授,智能科技風險法律防控工信部重點實驗室執(zhí)行主任陳姿含從法律角度提出了自己的看法。
“法學在解決問題的時候,首先要進行人和客觀世界的劃分,那么智能算法可能產生的倫理問題,就是由人工智能沖擊了人與客觀世界的邊界之后帶來的。”陳姿含說。
什么意思呢?像是性別、宗教信息等等數(shù)據,在法律中會將其視為個人敏感信息或公共數(shù)據,用其保證公平和爭議,而智能算法不僅會輔助法律去規(guī)制對信息不必要的利用行為,還會在其間建立一種關聯(lián),同時挖掘更多的關聯(lián)性信息作為替代。因此,這就有可能產生對既有的秩序、公平和正義的沖擊。
在陳姿含看來,解決人工智能的倫理問題有兩個非常重要的思考點:
首先是解決人工智能算法相關決策,建立具體法律的制度性保障。這本質上也是安全問題,也是科技探求最為重要的出發(fā)點,解決了安全需求,知道如何用法律對自己和事件進行保護,才能夠探討其他制度性構建。
其次是公共算法決策對制度的整體性沖擊,尤其要思考人類的主體性危機。陳姿含表示,大眾現(xiàn)在已經建立起對國家和法律的一種信任,但如果將決策依據調整為公共算法,誰是治理主體,算法又有沒有可能導致不公,存不存在權力的外包等等新問題就會出現(xiàn)。
“主體性危機”是什么?陳姿含從兩個方面解釋:
首先人工智能或者算法模擬了人作為法律主題的物理性基礎,比如像是AlphaGo這樣的AI就模仿了人類的理性思維,擁有強大的計算能力。
其次算法復制了“法律主體”的擬制過程。法律上人的概念與生物學上的人是相互區(qū)別的,法律劃定的個人的社會關系是指一個人能夠控制的與個體相關的信息,比如身體、物理空間以及隱私,這些信息不僅可以在個體組成的社會網絡中進行有效連接,還能夠刺破公共區(qū)域,介入到私人領域中去而。但很多時候,人工智能恰好需要這些信息才能做到非常穩(wěn)定的決策,那么這時,人的心智在某種程度上就被還原為了客觀的物質。
現(xiàn)在,人工智能律師、人工智能警察等等都在進入人類的生活,作為一個法律學者,陳姿含認為,這都使得法律主體的一元論受到了挑戰(zhàn),因此這時就需要思考,算法、人工智能、數(shù)字人到底是服務于人類,還是在決定人類。
“事實上,法律上將人類劃分社會契約的主體,并不是因為人類較之于以往的生物多么的優(yōu)秀,而是在強調人都是理性的,縱然在現(xiàn)實生活中有千差萬別,也應該受到平等的保護。但差異化定價、個性化歧視等算法則加劇了人類差別的挖掘。而對于我們人類來說,應當是以人作為出發(fā)點,并且以保障個體權利為最終歸宿?!标愖撕f。
(文章來源:南方都市報)
標簽: