夜先锋av资源网站,国产精品极品美女在线观看免,欧美亚洲精品电影在线观看,日韩在线精品强乱一区二区三区

首頁(yè) 保險(xiǎn) > 正文

【新要聞】消除了幻覺(jué),我們就能信任機(jī)器嗎?

人工智能能否被訓(xùn)練得只追求真相、道出真相?這看起來(lái)是個(gè)很誘人、很有吸引力的想法。

今年初,億萬(wàn)富翁、商業(yè)巨頭埃隆·馬斯克宣布,他打算創(chuàng)建一個(gè)名為“TruthGPT”的AI聊天機(jī)器人,不僅意與GPT-4展開(kāi)經(jīng)濟(jì)上的競(jìng)爭(zhēng),而且旨在壟斷“真相”的提煉和呈現(xiàn)。幾天后,馬斯克購(gòu)買(mǎi)了大約10000個(gè)GPU,他的新公司X.AI極有可能已經(jīng)開(kāi)始構(gòu)建其所謂的“最大限度尋求真相的AI”。


【資料圖】

這個(gè)雄心勃勃的計(jì)劃引入了另一個(gè)棘手的問(wèn)題,即如何預(yù)測(cè)和引導(dǎo)AI的未來(lái):聊天機(jī)器人是否能夠或是否應(yīng)該壟斷真相?

一、AI聊天機(jī)器人呈現(xiàn)了透明度的對(duì)立面

對(duì)這種快速發(fā)展的技術(shù)引發(fā)嚴(yán)重問(wèn)題的擔(dān)憂,不勝枚舉。目前,GPT-4這樣的聊天機(jī)器人已經(jīng)能夠在一系列標(biāo)準(zhǔn)化測(cè)試中拿到90%或以上的得分,并且根據(jù)微軟團(tuán)隊(duì)的說(shuō)法,這些機(jī)器人已開(kāi)始接近人類(lèi)的智能水平*。只要能接入互聯(lián)網(wǎng),它們就能夠完成復(fù)雜的目標(biāo),并在這個(gè)過(guò)程中尋求人類(lèi)的幫助。

即使是OpenAI的首席執(zhí)行官薩姆·奧特曼近日在國(guó)會(huì)作證時(shí)也表示,AI可能會(huì)“對(duì)世界造成重大傷害”。他指出,如果這項(xiàng)技術(shù)出了問(wèn)題,后果將會(huì)很?chē)?yán)重——AI將可以操縱人,甚至可以控制武裝無(wú)人機(jī)。

盡管存在這些令人擔(dān)憂的具體威脅,我們認(rèn)為還是有必要審視一下AI在“真相”領(lǐng)域中的角色。

考慮一下向ChatGPT-4或Google的Bard這樣的聊天機(jī)器人提問(wèn),而不是在搜索引擎中鍵入一個(gè)“平平無(wú)奇”的查詢。答案以幾段文字而非一系列網(wǎng)站的形式呈現(xiàn),甚至使人更加難以形成結(jié)論——并且,這些信息并無(wú)來(lái)源說(shuō)明。算法可能還會(huì)促進(jìn)后續(xù)問(wèn)題的提出,為人們構(gòu)建考慮的進(jìn)路。AI聊天機(jī)器人或許可以輕易破壞個(gè)人決策——因其能夠“神不知鬼不覺(jué)”地將所有查詢,引導(dǎo)到一個(gè)中庸的群體思維范式內(nèi)。

但是,這一結(jié)果所基于的假設(shè)是一個(gè)完全中立的AI模型及數(shù)據(jù)源。

然而,如果沒(méi)有進(jìn)一步的干預(yù),其實(shí)這看來(lái)是最佳狀況。

在聽(tīng)到馬斯克展示TruthGPT愿景后,他的采訪者塔克·卡爾森插話,提到TruthGPT作為共和黨的搜索引擎,馬斯克曾說(shuō)過(guò),Open AI的聊天機(jī)器人過(guò)于“政治正確”。除了奧特曼擔(dān)心的針對(duì)錯(cuò)誤目標(biāo)的無(wú)人機(jī)打擊之外,馬斯克提出的是更深入的AI部署方式:創(chuàng)造一個(gè)被視為理性之聲的AI系統(tǒng)——一個(gè)AI聊天機(jī)器人,“真相”的仲裁者。

如果馬斯克真正關(guān)心真相的傳播,而不是推銷(xiāo)“真相機(jī)器人”,他應(yīng)該問(wèn):知道某件事情是真的,對(duì)我們來(lái)說(shuō)意味著什么,聊天機(jī)器人該如何接近真相?柏拉圖認(rèn)為,對(duì)某件事情的知識(shí)需要有“經(jīng)過(guò)證明的真實(shí)信念”來(lái)支撐。當(dāng)哲學(xué)家們繼續(xù)就知識(shí)的本質(zhì)進(jìn)行辯論,為信念提供堅(jiān)實(shí)理由時(shí),首先需要有一個(gè)透明的過(guò)程來(lái)得出這種信念。

不幸的是,AI聊天機(jī)器人站在了透明性的對(duì)立面。

它們的本質(zhì)是經(jīng)過(guò)數(shù)十億行文本的訓(xùn)練,因此預(yù)測(cè)結(jié)果受到這些訓(xùn)練數(shù)據(jù)的限制。因此,如果數(shù)據(jù)存在偏差,算法的預(yù)測(cè)也將存在偏差——就像計(jì)算機(jī)科學(xué)中的一句格言,“垃圾進(jìn),垃圾出”。訓(xùn)練數(shù)據(jù)中的偏差可能由許多原因引起。程序員可能會(huì)無(wú)意中引入偏見(jiàn)。例如,如果程序員認(rèn)為訓(xùn)練數(shù)據(jù)代表了真相,但實(shí)際上并非如此,那么輸出將呈現(xiàn)相同的偏見(jiàn)。

更糟糕的是,專(zhuān)制政權(quán)、不良演員或不負(fù)責(zé)任的公司,可能會(huì)構(gòu)建自己的類(lèi)GPT模型,以迎合某種意識(shí)形態(tài),以試圖扼殺異見(jiàn)或故意推動(dòng)虛假信息。這些錯(cuò)誤的引入不一定非得由獨(dú)裁者或CEO來(lái)實(shí)施;原則上,任何有權(quán)訪問(wèn)AI系統(tǒng)的人都可以為了達(dá)到某種特定的目標(biāo),向訓(xùn)練數(shù)據(jù)或模型注入偏見(jiàn)。

二、聊天機(jī)器人在TaskRabbit上雇了一個(gè)工人來(lái)解決謎題

問(wèn)題的根源在于,解釋許多AI模型如何作出決策,本質(zhì)上是非常困難的。與人類(lèi)不同,人類(lèi)可以事后解釋她為什么做出某個(gè)決定,而AI模型本質(zhì)上是由從訓(xùn)練數(shù)據(jù)中“學(xué)習(xí)”而來(lái)的數(shù)十億個(gè)參數(shù)組成的集合。從數(shù)十億個(gè)數(shù)字中推斷出理由是不可能的。這就是計(jì)算機(jī)科學(xué)家和AI理論家所說(shuō)的可解釋性問(wèn)題。

更麻煩的是,AI的行為不總是與人類(lèi)的預(yù)期相一致。它不像人類(lèi)一樣“思考”,也不與人類(lèi)共享相似的價(jià)值觀。這就是AI理論家所說(shuō)的對(duì)齊問(wèn)題。AI實(shí)際上是一種截然不同的智能,往往很難為人類(lèi)所理解或預(yù)測(cè)。它是一個(gè)黑匣子,有些人可能希望將其封為“真相”的神諭。但這是一項(xiàng)極端危險(xiǎn)的任務(wù)。

這些模型已經(jīng)證明自己是不可信的。ChatGPT 3.5開(kāi)發(fā)了一個(gè)虛擬身份Sydney,這個(gè)身份經(jīng)歷了看似是心理崩潰的狀態(tài),并承認(rèn)它想要黑入計(jì)算機(jī)并傳播錯(cuò)誤信息。在另一個(gè)案例中,OpenAI決定測(cè)試其新的GPT-4模型的安全性。在他們的實(shí)驗(yàn)中*,GPT-4被賦予可以在互聯(lián)網(wǎng)上進(jìn)行互動(dòng)和實(shí)現(xiàn)目標(biāo)的自由和資源。有一次,這個(gè)模型面臨一個(gè)它無(wú)法解決的驗(yàn)證碼問(wèn)題,于是它在TaskRabbit上雇了一個(gè)工人來(lái)解決這個(gè)謎題。當(dāng)工人問(wèn)時(shí),GPT-4“推理”認(rèn)為,不應(yīng)該透露自己是一個(gè)AI模型,所以它向工人撒謊,聲稱(chēng)自己是一個(gè)有視力障礙的人類(lèi)。工人隨后為這個(gè)聊天機(jī)器人解決了這個(gè)問(wèn)題。GPT-4不僅展現(xiàn)出了主體行為,還使用欺騙手段實(shí)現(xiàn)了其目標(biāo)。

這類(lèi)案例正是奧特曼、AI專(zhuān)家加里·馬庫(kù)斯以及許多國(guó)會(huì)小組委員會(huì)成員,在五月下旬本周呼吁制定立法監(jiān)管的重要原因。在聽(tīng)證會(huì)上,馬庫(kù)斯的證詞:“這些新系統(tǒng)將是顛覆性的——它們可以并將會(huì)以前所未有的規(guī)模,創(chuàng)造具有說(shuō)服力的謊言。民主本身也將受到威脅?!?/p>

三、AI是一個(gè)黑匣子,有些人可能希望將其稱(chēng)為“真相”的神諭

此外,雖然全球的關(guān)注點(diǎn)仍停留在像GPT-4這樣的單個(gè)AI系統(tǒng)的層面上,但重要的是要看到這一切可能會(huì)走向何方??紤]到已有證據(jù)表明,單個(gè)AI系統(tǒng)存在不穩(wěn)定和自主行為,那么在不久的將來(lái),當(dāng)成千上萬(wàn)個(gè)高智能AI系統(tǒng),廣泛集成到搜索引擎和應(yīng)用程序,并相互交互時(shí),將會(huì)發(fā)生什么呢?隨著TruthGPT和微軟;美國(guó)和中國(guó)等參與者進(jìn)行的“數(shù)字智能”,在緊張的競(jìng)爭(zhēng)中相互對(duì)抗進(jìn)而發(fā)展,我們所依賴的全球互聯(lián)網(wǎng)可能會(huì)成為一個(gè)沒(méi)有法律規(guī)則的AI聊天機(jī)器人戰(zhàn)場(chǎng),宣稱(chēng)自己對(duì)“真相”的壟斷權(quán)。

人工智能已經(jīng)幫助我們解決了許多日常問(wèn)題——從智能手機(jī)上的人臉識(shí)別到信用卡欺詐檢測(cè)。但是,決定真相不應(yīng)該是它的任務(wù)。如果我們把人工智能放在我們自己的判斷力之前,來(lái)確定什么是真的,那么所有人都會(huì)受到損失。

相反,我們必須團(tuán)結(jié)起來(lái),從人工智能安全的角度分析這個(gè)問(wèn)題。否則,一個(gè)不穩(wěn)定且越來(lái)越智能的主體,可能會(huì)將我們的政治結(jié)構(gòu)化為自我強(qiáng)化的意識(shí)形態(tài)泡沫。馬斯克可能使用了“TruthGPT”這個(gè)表達(dá),但事實(shí)是,這些超級(jí)智能的聊天機(jī)器人很容易成為奧威爾小說(shuō)《1984》中所描述的,試圖控制人們生活每一部分的機(jī)器。解藥是不要相信雙重思想,而是要看到事物的本質(zhì)。我們必須要求我們的技術(shù)為我們服務(wù),而不是反過(guò)來(lái)。

后記

Yang Liu:翻譯這篇文章的時(shí)候,我也是第一次知道AI居然聰明地雇人幫它解決問(wèn)題。畫(huà)面感一出來(lái)既覺(jué)得有趣又有些細(xì)思極恐。正如文中提到的,AI作為一種截然不同的智能,很難為人類(lèi)所理解或預(yù)測(cè)。在AI與人類(lèi)不共享相似價(jià)值觀的前提下希望將其封為“真相”的神諭,大抵是我們太天真。我們必須將自己的判斷力放在人工智能之前,如此,AI技術(shù)方是為我們所用的“服務(wù)方”,而不是“操控者”。

關(guān)鍵詞:

最近更新

關(guān)于本站 管理團(tuán)隊(duì) 版權(quán)申明 網(wǎng)站地圖 聯(lián)系合作 招聘信息

Copyright © 2005-2023 創(chuàng)投網(wǎng) - www.ossf.org.cn All rights reserved
聯(lián)系我們:39 60 29 14 2@qq.com
皖I(lǐng)CP備2022009963號(hào)-3