參考消息網(wǎng)2月17日?qǐng)?bào)道英國(guó)《自然》周刊網(wǎng)站2月13日發(fā)表題為《人工智能聊天機(jī)器人走入搜索引擎——你能相信這些結(jié)果嗎?》的文章,作者是克里斯·斯托克爾-沃克,文章編譯如下:
在聊天機(jī)器人ChatGPT以其驚人的像人類一樣寫作和回答問題的能力令世界驚嘆數(shù)月后,人工智能正在走入互聯(lián)網(wǎng)搜索領(lǐng)域。
全球三大搜索引擎——谷歌、必應(yīng)和百度——上周表示,它們將把ChatGPT或類似的人工智能技術(shù)整合到自己的搜索產(chǎn)品中,讓人們能夠直接獲得答案或參與對(duì)話,而不僅僅是在輸入單詞或問題后收到一長(zhǎng)串網(wǎng)頁(yè)鏈接。這將如何改變?nèi)藗兣c搜索引擎之間的關(guān)系?這種人機(jī)互動(dòng)形式是否存在風(fēng)險(xiǎn)?
(資料圖片)
微軟公司的搜索引擎必應(yīng)使用的技術(shù)與ChatGPT相同,后者是由加利福尼亞州舊金山的開放人工智能研究中心開發(fā)的。但這三家公司都在使用大型語(yǔ)言模型(LLM)。LLM通過呼應(yīng)它們?cè)诖笮蛿?shù)據(jù)庫(kù)中遇到的文本的統(tǒng)計(jì)模式來創(chuàng)造令人信服的句子。谷歌于2月6日宣布的人工智能搜索引擎“巴德”目前正由一小群測(cè)試人員使用。微軟的版本現(xiàn)已廣泛推出,盡管在不受限的訪問方面仍需等待。百度將于3月份推出“文心一言”人工智能聊天機(jī)器人。
在三大搜索引擎宣布這些消息之前,一些規(guī)模較小的公司已經(jīng)發(fā)布了人工智能搜索引擎。駐舊金山的計(jì)算機(jī)科學(xué)家阿拉溫德·斯里尼瓦斯去年8月與他人共同創(chuàng)立了“困惑”人工智能公司——這是一個(gè)基于LLM的智能搜索引擎,能用英語(yǔ)會(huì)話和回答問題。斯里尼瓦斯說:“搜索引擎的發(fā)展正在進(jìn)入一個(gè)新階段,你可以真正開始與它們對(duì)話,就像你跟朋友交談那樣?!?/p>
與傳統(tǒng)的互聯(lián)網(wǎng)搜索相比,這種人機(jī)對(duì)話帶有更強(qiáng)的私密性,這可能有助于改變?nèi)藗儗?duì)搜索結(jié)果的看法。瑞士蘇黎世大學(xué)的計(jì)算社會(huì)科學(xué)家亞歷山德拉·烏爾曼說,與獨(dú)立的搜索引擎相比,人們可能天生就會(huì)更相信與他們對(duì)話的聊天機(jī)器人給出的答案。
位于蓋恩斯維爾的佛羅里達(dá)大學(xué)一個(gè)研究團(tuán)隊(duì)在2022年發(fā)現(xiàn),對(duì)那些與亞馬遜和百思買等公司使用的聊天機(jī)器人進(jìn)行互動(dòng)的參與者來說,對(duì)話越像人類之間的互動(dòng),他們就越信任該公司。
這可能是有益的,它能使搜索變得更快、更順暢。但鑒于人工智能聊天機(jī)器人也會(huì)犯錯(cuò),這種信任感的增強(qiáng)可能會(huì)帶來問題。谷歌的“巴德”聊天機(jī)器人在技術(shù)演示中對(duì)有關(guān)詹姆斯·韋布空間望遠(yuǎn)鏡的問題給出了錯(cuò)誤的回答。就ChatGPT而言,對(duì)于它不知道答案的問題,它有一種創(chuàng)造虛構(gòu)答案的傾向——有些人稱之為“幻覺”。
谷歌的一位發(fā)言人說,聊天機(jī)器人“巴德”的錯(cuò)誤“凸顯了嚴(yán)格測(cè)試流程的重要性,本周谷歌將通過我們值得信賴的測(cè)試計(jì)劃啟動(dòng)這項(xiàng)工作”。但一些人認(rèn)為,這樣的錯(cuò)誤——假設(shè)它們被發(fā)現(xiàn)了——非但沒有增強(qiáng)使用者的信任,反而可能導(dǎo)致用戶對(duì)基于聊天的互聯(lián)網(wǎng)搜索失去信心。駐加利福尼亞州芒廷維尤的計(jì)算機(jī)科學(xué)家、搜索引擎Neeva的首席執(zhí)行官斯里達(dá)爾·拉馬斯瓦米說:“早期認(rèn)知會(huì)產(chǎn)生非常大的影響?!盢eeva是一個(gè)由LLM驅(qū)動(dòng)的搜索引擎,于1月份推出。由于投資者對(duì)未來感到擔(dān)憂并拋售股票,“巴德”的這個(gè)錯(cuò)誤使谷歌市值蒸發(fā)了1000億美元。
令答案不準(zhǔn)確問題雪上加霜的是人工智能搜索相對(duì)缺乏透明度。通常情況下,搜索引擎會(huì)向用戶展示其來源——一長(zhǎng)串網(wǎng)頁(yè)鏈接——并讓他們自行決定該相信哪些內(nèi)容。相比之下,很少有人知道LLM是根據(jù)什么數(shù)據(jù)進(jìn)行訓(xùn)練的——是《不列顛百科全書》還是八卦博客?
烏爾曼說:“(人工智能驅(qū)動(dòng)的搜索)如何運(yùn)作完全不透明,如果語(yǔ)言模型出現(xiàn)失誤、制造幻覺或傳播錯(cuò)誤信息,那可能會(huì)產(chǎn)生非常大的影響?!?/p>
烏爾曼說,如果搜索機(jī)器人犯了足夠多的錯(cuò)誤,那么它們非但不會(huì)憑借其對(duì)話能力增加用戶的信任,反而有可能顛覆用戶對(duì)搜索引擎的看法,認(rèn)為它們不再是公正的真相仲裁者。
她進(jìn)行的一項(xiàng)尚未公開發(fā)表的研究顯示,目前用戶對(duì)搜索引擎的信任度很高。她研究了人們?nèi)绾慰创雀栌脕碓鰪?qiáng)搜索體驗(yàn)的現(xiàn)有功能,即所謂的“精選摘要”(被認(rèn)為與搜索特別相關(guān)的頁(yè)面摘要出現(xiàn)在鏈接上方)和“知識(shí)面板”(谷歌在回應(yīng)關(guān)于某人或某組織的搜索時(shí)自動(dòng)生成摘要)。烏爾曼的調(diào)查發(fā)現(xiàn),近80%的受訪者認(rèn)為這些功能是準(zhǔn)確的,大約70%的受訪者認(rèn)為它們是客觀公正的。
數(shù)據(jù)科學(xué)平臺(tái)抱抱臉公司的首席倫理學(xué)家吉婭達(dá)·皮斯蒂利說,由聊天機(jī)器人驅(qū)動(dòng)的搜索模糊了機(jī)器與人類之間的區(qū)別。該公司倡導(dǎo)負(fù)責(zé)任地使用人工智能技術(shù)。她對(duì)企業(yè)如此迅速地采用人工智能技術(shù)感到擔(dān)憂。皮斯蒂利說:“我們總是在沒有任何控制或沒有相應(yīng)的教育框架來了解該如何使用這些技術(shù)的情況下拋出這些新技術(shù)。”
網(wǎng)站首頁(yè) |網(wǎng)站簡(jiǎn)介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
中國(guó)網(wǎng)絡(luò)消費(fèi)網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復(fù)制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com