夜先锋av资源网站,国产精品极品美女在线观看免,欧美亚洲精品电影在线观看,日韩在线精品强乱一区二区三区

首頁 理財 > 正文

每日資訊:Meta首席科學(xué)家:AI不如狗聰明

AI前線


(相關(guān)資料圖)

編譯 | Sambodhi、凌敏

毫無疑問,當(dāng)前的 AI 仍存在一定的局限性。

AI 還不如狗聰明?

近日,Meta 首席人工智能科學(xué)家楊立昆(Yann LeCun)在法國巴黎舉行的 Viva Tech 大會上被問及人工智能的當(dāng)前局限性。他重點談到了基于大型語言模型的生成式人工智能,表示它們并不是很智能,因為它們僅僅是通過語言訓(xùn)練的。

楊立昆表示,當(dāng)前的人工智能系統(tǒng)智力水平不及人類,甚至還不如一條狗聰明?!斑@些系統(tǒng)仍然非常有限,它們對真實世界的底層現(xiàn)實沒有任何理解,因為它們純粹是基于大量的文本訓(xùn)練的。” “人類知識的大部分與語言無關(guān)……所以,人工智能并沒有涵蓋人類經(jīng)驗的那一部分?!?

楊立昆補(bǔ)充說,現(xiàn)在一種人工智能系統(tǒng)可以通過美國的律師資格考試,也就是成為律師所必需的考試。然而,他說人工智能無法裝載洗碗機(jī),而一個 10 歲的孩子可以在 “10 分鐘內(nèi)學(xué)會”。

楊立昆表示, Meta 正在致力于訓(xùn)練人工智能從視頻中學(xué)習(xí),而不僅僅是從語言中學(xué)習(xí), 這是一項更具挑戰(zhàn)性的任務(wù)。

在另一個當(dāng)前人工智能局限性的例子中,楊立昆舉例稱一個 5 個月大的嬰兒看到一個漂浮的物體,并不會想太多。然而,一個 9 個月大的嬰兒看到這個物體會感到驚訝,因為它意識到物體不應(yīng)該漂浮。

楊立昆表示,我們“不知道如何在今天用機(jī)器來復(fù)制這種能力。在我們能做到這一點之前,機(jī)器不會有人類水平的智能,也不會有狗或貓的智能水平?!?

還有必要將 AI 視作威脅嗎?

人工智能的快速發(fā)展引發(fā)了部分技術(shù)人士的擔(dān)憂,有人認(rèn)為,如果不加以控制,這項技術(shù)可能對社會構(gòu)成危險。特斯拉首席執(zhí)行官馬斯克更是表示,人工智能是 “對文明未來最大的風(fēng)險之一”。

前段時間,人工智能安全中心(CAIS)發(fā)布了一份由 OpenAI 及 DeepMind 高管、圖靈獎獲得者及其他 AI 研究人員簽署的簡短聲明,警告稱他們的畢生成果可能會毀滅全人類。聲明內(nèi)容只有一句:“應(yīng)該像對待包括流行病和核戰(zhàn)爭等其他全球性迫切社會問題一樣,緩解 AI 引發(fā)的滅絕性風(fēng)險。”CAIS 表示,這份聲明希望討論“AI 所帶來的廣泛且緊迫的風(fēng)險”。

在聲明上簽字的名人包括圖靈獎獲得者 Geoffery Hinton 和 Yoshua Bengio、OpenAI CEO Sam Altman、OpenAI 首席科學(xué)家 Ilya Sutskever、OpenAI 首席技術(shù)官 Mira Murati、DeepMind CEO Demis Hassabis、Anthropic CEO Dario Amodei,以及來自加州大學(xué)伯克利分校、斯坦福大學(xué)和麻省理工學(xué)院的多位教授。

在 Viva Tech 大會上,法國經(jīng)濟(jì)學(xué)家和社會理論家 Jacques Attali 在談到相關(guān)話題時也對 AI 風(fēng)險表示擔(dān)憂,Attali 認(rèn)為,AI 的利弊取決于其使用方式。

“如果你使用人工智能來開發(fā)更多化石燃料,那將是可怕的。如果你使用人工智能來開發(fā)更多可怕的武器,那也將是可怕的,”Attali 說,“相反,人工智能對于健康、教育和文化可能是令人驚人的?!?

Attali 對未來持悲觀態(tài)度,他說:“眾所周知,人類在未來三到四十年面臨許多危險。”他指出氣候災(zāi)難和戰(zhàn)爭是他最擔(dān)心的問題之一,還提到他擔(dān)心機(jī)器人 “會對我們進(jìn)行反叛”。

而楊立昆則有不同的觀點,楊立昆的態(tài)度比較樂觀,他認(rèn)為將來會有比人類更聰明的機(jī)器,這不應(yīng)被視為一種威脅?!拔覀儾粦?yīng)該把這視為一種威脅,我們應(yīng)該把這視為一種非常有益的事情。每個人都將擁有一個比自己更聰明的人工智能助手……它將像一個員工一樣,在你的日常生活中為你提供幫助,”楊立昆說道。

楊立昆補(bǔ)充說,這些人工智能系統(tǒng)需要被創(chuàng)建為“可控制的,基本上服從人類”。他還駁斥了機(jī)器人會接管世界的觀點。“科幻小說中流行的一個恐懼是,如果機(jī)器人比我們聰明,它們將想要接管世界……聰明與是否想要接管之間沒有關(guān)聯(lián),”

參考鏈接:

/2023/06/15/

/article/ARJEOOh2M5oAmwRCpzfk

關(guān)鍵詞:

最近更新

關(guān)于本站 管理團(tuán)隊 版權(quán)申明 網(wǎng)站地圖 聯(lián)系合作 招聘信息

Copyright © 2005-2023 創(chuàng)投網(wǎng) - www.ossf.org.cn All rights reserved
聯(lián)系我們:39 60 29 14 2@qq.com
皖I(lǐng)CP備2022009963號-3