亚洲欧美日韩国产综合一区二区_亚洲偷精品国产五月丁香麻豆_精品久久久久久中文字幕202_久久国产亚洲精品美女_国产精品调教视频一区

【世界新要聞】谷歌CEO:AI虛假內(nèi)容說明監(jiān)管必要性

2023-04-17 23:15:34
澎湃新聞 發(fā)布時(shí)間:2023/4/17 22:23:22
選擇字號(hào):
谷歌CEO:AI虛假內(nèi)容說明監(jiān)管必要性

 

“我一直認(rèn)為 AI (人工智能)是人類正在研究的最深刻的技術(shù),比火、電或我們過去所做的任何事情都要深刻。”當(dāng)?shù)貢r(shí)間4月16日,在哥倫比亞廣播公司(CBS)的采訪節(jié)目《60分鐘》里,谷歌及其母公司Alphabet的首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)表達(dá)了他對人工智能的快速發(fā)展及其對社會(huì)潛在威脅的擔(dān)憂。

皮查伊認(rèn)為,社會(huì)需要適應(yīng)新技術(shù),各行各業(yè)或許都會(huì)受到影響,作家、會(huì)計(jì)師、建筑師,以及軟件工程師在內(nèi)的“知識(shí)工作者”或?qū)⒈蝗斯ぶ悄茴嵏病?/p>

“新技術(shù)將影響每家公司的每一種產(chǎn)品。”皮查伊舉例,假如你是一名放射科醫(yī)生,想象一下從現(xiàn)在起的五年到十年,會(huì)有一個(gè)人工智能與你共同工作,當(dāng)你早上起來面對上百件待處理任務(wù)時(shí),它能夠告訴你哪些是需要優(yōu)先處理的最嚴(yán)重的事件。

對于新技術(shù)帶來的安全問題,皮查伊表示,虛假信息、假新聞和圖像方面有很大問題,他強(qiáng)調(diào)生成式人工智能的風(fēng)險(xiǎn)之一是深度偽造視頻(deep fake videos),在這些視頻中,一個(gè)人的行為可能會(huì)被偽造,例如發(fā)布從未說過的某種言論。

“這些陷阱說明了監(jiān)管的必要性。”他說道,“制作這些深度偽造視頻的人必須承擔(dān)后果。任何與人工智能合作過的人都會(huì)意識(shí)到,這是如此不同、如此深刻的東西,以至于我們需要社會(huì)法規(guī)來思考如何適應(yīng)。” 

因此他強(qiáng)調(diào)必須有監(jiān)管存在,“我們周圍已經(jīng)發(fā)生的技術(shù),將比我們以前見過的任何東西更有能力。”

在采訪中皮查伊表示,讓他夜不能寐的一件事是谷歌的AI技術(shù)被以有害的方式利用。 

在OpenAI推出ChatGPT后,谷歌開始部署自己的聊天機(jī)器人Bard。目前,谷歌一直對Bard采取謹(jǐn)慎的態(tài)度,強(qiáng)調(diào)這只是“實(shí)驗(yàn)性”產(chǎn)品。

據(jù)介紹,Bard內(nèi)置安全過濾器,以幫助抵御惡意用戶的威脅。皮查伊表示,公司需要不斷更新系統(tǒng)的算法,以打擊虛假信息活動(dòng)并檢測深度造假行為,比如檢測計(jì)算機(jī)生成的看似真實(shí)的圖像。

此前,谷歌發(fā)布了一份關(guān)于“監(jiān)管人工智能建議”的文件。皮查伊表示,社會(huì)必須迅速適應(yīng)監(jiān)管濫用行為的法律和條約,以確保人工智能對世界的影響。

皮查伊強(qiáng)調(diào),“這不是一家公司可以決定的。這也是為什么我認(rèn)為新技術(shù)的發(fā)展不僅需要工程師的努力,還需要社會(huì)科學(xué)家、倫理學(xué)家、哲學(xué)家等共同參與。”

當(dāng)被問及社會(huì)是否為像Bard這樣的人工智能技術(shù)做好準(zhǔn)備時(shí),皮查伊回答說,“一方面,我覺得沒有,因?yàn)槲覀兊乃伎己瓦m應(yīng)的速度趕不上技術(shù)發(fā)展的速度。”  

不過,他補(bǔ)充說自己很樂觀,因?yàn)榕c過去的其他技術(shù)相比,“開始擔(dān)心其影響的人”很早就有所準(zhǔn)備了。

(原題:《谷歌CEO: 社會(huì)需要適應(yīng)AI,但AI虛假內(nèi)容說明監(jiān)管必要性》)

 
 
 
特別聲明:本文轉(zhuǎn)載僅僅是出于傳播信息的需要,并不意味著代表本網(wǎng)站觀點(diǎn)或證實(shí)其內(nèi)容的真實(shí)性;如其他媒體、網(wǎng)站或個(gè)人從本網(wǎng)站轉(zhuǎn)載使用,須保留本網(wǎng)站注明的“來源”,并自負(fù)版權(quán)等法律責(zé)任;作者如果不希望被轉(zhuǎn)載或者聯(lián)系轉(zhuǎn)載稿費(fèi)等事宜,請與我們接洽。
<script src="/html/js/share.js" type="text/javascript"></script>
 
 打印  發(fā)E-mail給: 
    
 

“我一直認(rèn)為 AI (人工智能)是人類正在研究的最深刻的技術(shù),比火、電或我們過去所做的任何事情都要深刻。”當(dāng)?shù)貢r(shí)間4月16日,在哥倫比亞廣播公司(CBS)的采訪節(jié)目《60分鐘》里,谷歌及其母公司Alphabet的首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)表達(dá)了他對人工智能的快速發(fā)展及其對社會(huì)潛在威脅的擔(dān)憂。


(資料圖)

皮查伊認(rèn)為,社會(huì)需要適應(yīng)新技術(shù),各行各業(yè)或許都會(huì)受到影響,作家、會(huì)計(jì)師、建筑師,以及軟件工程師在內(nèi)的“知識(shí)工作者”或?qū)⒈蝗斯ぶ悄茴嵏病?/p>

“新技術(shù)將影響每家公司的每一種產(chǎn)品。”皮查伊舉例,假如你是一名放射科醫(yī)生,想象一下從現(xiàn)在起的五年到十年,會(huì)有一個(gè)人工智能與你共同工作,當(dāng)你早上起來面對上百件待處理任務(wù)時(shí),它能夠告訴你哪些是需要優(yōu)先處理的最嚴(yán)重的事件。

對于新技術(shù)帶來的安全問題,皮查伊表示,虛假信息、假新聞和圖像方面有很大問題,他強(qiáng)調(diào)生成式人工智能的風(fēng)險(xiǎn)之一是深度偽造視頻(deep fake videos),在這些視頻中,一個(gè)人的行為可能會(huì)被偽造,例如發(fā)布從未說過的某種言論。

“這些陷阱說明了監(jiān)管的必要性。”他說道,“制作這些深度偽造視頻的人必須承擔(dān)后果。任何與人工智能合作過的人都會(huì)意識(shí)到,這是如此不同、如此深刻的東西,以至于我們需要社會(huì)法規(guī)來思考如何適應(yīng)。” 

因此他強(qiáng)調(diào)必須有監(jiān)管存在,“我們周圍已經(jīng)發(fā)生的技術(shù),將比我們以前見過的任何東西更有能力。”

在采訪中皮查伊表示,讓他夜不能寐的一件事是谷歌的AI技術(shù)被以有害的方式利用。 

在OpenAI推出ChatGPT后,谷歌開始部署自己的聊天機(jī)器人Bard。目前,谷歌一直對Bard采取謹(jǐn)慎的態(tài)度,強(qiáng)調(diào)這只是“實(shí)驗(yàn)性”產(chǎn)品。

據(jù)介紹,Bard內(nèi)置安全過濾器,以幫助抵御惡意用戶的威脅。皮查伊表示,公司需要不斷更新系統(tǒng)的算法,以打擊虛假信息活動(dòng)并檢測深度造假行為,比如檢測計(jì)算機(jī)生成的看似真實(shí)的圖像。

此前,谷歌發(fā)布了一份關(guān)于“監(jiān)管人工智能建議”的文件。皮查伊表示,社會(huì)必須迅速適應(yīng)監(jiān)管濫用行為的法律和條約,以確保人工智能對世界的影響。

皮查伊強(qiáng)調(diào),“這不是一家公司可以決定的。這也是為什么我認(rèn)為新技術(shù)的發(fā)展不僅需要工程師的努力,還需要社會(huì)科學(xué)家、倫理學(xué)家、哲學(xué)家等共同參與。”

當(dāng)被問及社會(huì)是否為像Bard這樣的人工智能技術(shù)做好準(zhǔn)備時(shí),皮查伊回答說,“一方面,我覺得沒有,因?yàn)槲覀兊乃伎己瓦m應(yīng)的速度趕不上技術(shù)發(fā)展的速度。”  

不過,他補(bǔ)充說自己很樂觀,因?yàn)榕c過去的其他技術(shù)相比,“開始擔(dān)心其影響的人”很早就有所準(zhǔn)備了。

(原題:《谷歌CEO: 社會(huì)需要適應(yīng)AI,但AI虛假內(nèi)容說明監(jiān)管必要性》)

標(biāo)簽:

關(guān)閉
新聞速遞