過去一周,人工智能領(lǐng)域有三個(gè)大的新聞:
(資料圖)
一是特斯拉“召回”36萬輛車具有全自動(dòng)駕駛功能的電動(dòng)汽車,以解決其全自動(dòng)駕駛系統(tǒng)在十字路口周圍做出的不安全行為及超速問題,消息當(dāng)天特斯拉收跌5.7%。
二是聊天機(jī)器人Bard錯(cuò)誤頻出,谷歌要求進(jìn)行回爐重造,并動(dòng)員公司全員進(jìn)行內(nèi)測(cè)。上周在相關(guān)消息傳出后,谷歌市值一夜蒸發(fā)千億美元。
三是微軟新版Bing公開測(cè)試一周后,網(wǎng)友發(fā)現(xiàn)該搜索引擎不僅會(huì)侮辱、欺騙用戶,甚至已學(xué)會(huì)PUA(精神操控),還愛上用戶誘其離婚。微軟已經(jīng)表示將限定Bing機(jī)器人“聊天長(zhǎng)度”,避免AI“變態(tài)”。
紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)教授Gary Marcus表示,有人在Twitter上說這是三個(gè)不同的問題,但并不是,“特斯拉召回、微軟Bing失敗和谷歌Bard失敗并不是獨(dú)立的,每一個(gè)都反映了一個(gè)事實(shí),那就是我們不能僅靠大數(shù)據(jù)和深度學(xué)習(xí)在現(xiàn)實(shí)世界中構(gòu)建人工智能”。
“同時(shí)發(fā)生的內(nèi)爆會(huì)將AI打入寒冬嗎?”Marcus問到。
他在Twitter上說,我們需要新的方法,目前AI已經(jīng)被過度營(yíng)銷。
從假新聞到假觀點(diǎn),AI會(huì)讓互聯(lián)網(wǎng)“更假”?
近期ChatGPT火爆全球,讓人們看到了人工智能的飛速發(fā)展。
有分析稱,ChatGPT顯然是一個(gè)強(qiáng)大的新工具,有潛力在許多領(lǐng)域做很多好事,但也會(huì)有不利的一面。其中,像ChatGPT這樣的AI將能夠?qū)θ魏问虑楫a(chǎn)生無限的、幾乎免費(fèi)的“意見”。但與此同時(shí)也會(huì)產(chǎn)生很多虛假觀點(diǎn),并侵蝕自由主義話語中的另一個(gè)信任支柱,即活躍在線上的是真實(shí)的人。
如今,網(wǎng)絡(luò)上的假新聞泛濫已經(jīng)成為一個(gè)全球性的問題。假新聞以不實(shí)資訊誤導(dǎo)大眾,以帶來政治、經(jīng)濟(jì)、市場(chǎng)利益或心理成就感的新聞或宣傳,包括通過傳統(tǒng)新聞媒體(印刷和廣播)或在線社交媒體傳播故意錯(cuò)誤資訊或惡作劇,并形成一種負(fù)面循環(huán)。
毫無疑問,處理故意的假新聞是一個(gè)難題。而AI如果分享的是虛假觀點(diǎn),可能會(huì)產(chǎn)生更大的影響。宣傳者明白這一點(diǎn):讓一個(gè)人相信某件事,最有效的策略也許就是讓他們相信大多數(shù)和他們一樣的人已經(jīng)相信了這件事。
與過去的機(jī)器人不同,ChatGPT或類似的AI不需要發(fā)送幾乎完全相同觀點(diǎn)的復(fù)制粘貼語句。它們可以模仿人類,在一系列主題中產(chǎn)生無限連貫、細(xì)致入微和完全獨(dú)特的內(nèi)容。
分析稱,由一個(gè)AI運(yùn)行的Facebook賬戶可能會(huì)一開始每天發(fā)布食譜或關(guān)于它的狗的故事,過幾個(gè)月或幾年后才開始散布一些觀點(diǎn),比如,烏克蘭應(yīng)該為俄烏沖突負(fù)責(zé)。數(shù)以百萬計(jì)的人可以、也將會(huì)在幾乎沒有成本的情況下創(chuàng)建這樣的賬戶。
機(jī)器人賬戶不僅會(huì)主動(dòng)發(fā)帖,還會(huì)對(duì)其他用戶的帖子做出反應(yīng),并參與長(zhǎng)期對(duì)話。它們可以被編程為尋找特定的關(guān)鍵詞,如“烏克蘭”、“北約”或“普京”,分析過去的文章,并給出合理的回答。
幾乎免費(fèi)的意見的無限供應(yīng)可能會(huì)排擠真實(shí)的——即人類的——貢獻(xiàn)。一旦機(jī)器人專家變得與人類無法區(qū)分,人類將開始質(zhì)疑網(wǎng)絡(luò)上每個(gè)人的身份,尤其是那些與他們意見相左的人。
分析還稱,盡管AI還不成熟,但技術(shù)的局限性并不妨礙播下不信任的種子。某種意義上,技術(shù)局限甚至可能是一種功能,而不是bug。
在Twitter上隨機(jī)爭(zhēng)論的用戶并不以其言論的準(zhǔn)確性和復(fù)雜性而聞名。錯(cuò)誤、不準(zhǔn)確,甚至是編造的消息來源都可能給機(jī)器帶來人性化的感覺。最重要的是可信度,當(dāng)前版本的ChatGPT制造可信內(nèi)容的能力肯定不比普通Twitter用戶差。
生成式AI是一面鏡子:它最大的缺陷是人類的缺陷
也有分析指出,生成式AI有時(shí)會(huì)被批評(píng)有偏見、不準(zhǔn)確甚至自相矛盾,但這些都不是生成式AI本身的特征。問題的根本原因是,我們訓(xùn)練神經(jīng)網(wǎng)絡(luò)來模擬的人類創(chuàng)造的內(nèi)容是有偏見的、不準(zhǔn)確的、自相矛盾的。為什么?因?yàn)槲覀儯瑒?chuàng)造它的人,每個(gè)人都有自己的偏見,會(huì)犯錯(cuò)誤,然后這些內(nèi)容被用作訓(xùn)練神經(jīng)網(wǎng)絡(luò)的語料庫。
一種可能的解決方案是確保當(dāng)我們訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),我們提供給它的內(nèi)容是公正、準(zhǔn)確和邏輯一致的。除非我們這樣做,否則我們只是在模仿和延續(xù)過去的錯(cuò)誤:輸入垃圾,輸出垃圾。到目前為止,這個(gè)問題一直困擾著OpenAI的GPT系列模型,因?yàn)樗鼈兌急惶峁┝舜罅烤W(wǎng)絡(luò)的快照,作為它們應(yīng)該模仿的內(nèi)容的基礎(chǔ)。
網(wǎng)絡(luò)當(dāng)然不是完全公正、準(zhǔn)確和邏輯一致的,這就是為什么OpenAI對(duì)其模型進(jìn)行了編碼包裝,以試圖防止用戶得到模型可能產(chǎn)生的最壞結(jié)果——到目前為止,這只是部分成功。
不幸的是,確保用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的內(nèi)容公正準(zhǔn)確,說起來容易做起來難。另一種可能更現(xiàn)實(shí)的方法是試圖確定神經(jīng)網(wǎng)絡(luò)存儲(chǔ)信念的位置,然后編輯這些信念以使其準(zhǔn)確,或者刪除錯(cuò)誤的信念,否則會(huì)與同樣持有的正確信念相排斥。
無論采取何種方法,更棘手的挑戰(zhàn)將是找出誰來決定哪些信念是有偏見的、不準(zhǔn)確的或不合邏輯的,哪些不是。這與其說是一個(gè)技術(shù)挑戰(zhàn),不如說是一個(gè)文化和社會(huì)挑戰(zhàn)。
分析指出,在決定語料庫或模型的哪些部分是有偏見的、不準(zhǔn)確的或不合邏輯的復(fù)雜過程中,以人為本的設(shè)計(jì)過程將是必不可少的,因?yàn)樗鼜?qiáng)調(diào)理解使用系統(tǒng)的人的真實(shí)需求和生活經(jīng)驗(yàn),并經(jīng)常迭代以達(dá)到更高的質(zhì)量。
關(guān)鍵詞: 神經(jīng)網(wǎng)絡(luò) twitter bing 人工智能
網(wǎng)站首頁 |網(wǎng)站簡(jiǎn)介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
中國網(wǎng)絡(luò)消費(fèi)網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復(fù)制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com