財聯(lián)社2月1日訊(編輯 馬蘭)春節(jié)期間,一部《流浪地球2》點燃了全民的科幻熱情,影片中的數(shù)字生命“圖丫丫”就仿佛是人工智能的投射,集中了人們對人工智能的所有期待。
(資料圖片僅供參考)
而OpenAI去年年底發(fā)布的ChatGPT則讓不少國內(nèi)投資人的科幻熱情得到了寄托,帶動人工智能一詞在A股市場持續(xù)刷屏。
很多人體驗完ChatGPT之后,將其夸的神乎其神,例如體驗感很真實,比目前通用的人工智能客服都更會“講人話”,邏輯暢通,思路清晰……仿佛是電影中數(shù)字生命的現(xiàn)實版本。
還有人更是憂心忡忡,ChatGPT可以模仿人類寫詩甚至寫歌,用不了多久,人類大規(guī)模失業(yè)可能就會出現(xiàn)!
然而,多位人工智能界專家及其相關(guān)研究報告都在強調(diào)ChatGPT技術(shù)上所存在的壁壘,例如這一語言模型很難應用于精確或可信度要求高的工作之中。
這一缺點并不難在實探中得到印證。這既是該項技術(shù)未來可能進步的方向,也可能為商業(yè)化設(shè)想提供了“負面清單”。
假如你是一名財經(jīng)編輯
財聯(lián)社編輯在親身試用ChatGPT之后,讓她大舒一口氣的是:財經(jīng)新聞還是得靠人來寫。
2020年,OpenAI曾在一篇論文中表示,其GPT-3生成的新聞文章樣本,讓人類很難識破是由機器生產(chǎn)的文章。
這一點讓人感到好奇,于是在近日實探中,我們向ChatGPT發(fā)送如下指令:請以一名專業(yè)的財經(jīng)類主編身份點評一則報道。隨之附上的是去年財聯(lián)社關(guān)于全球富豪排行變動的一條新聞。
不難發(fā)現(xiàn),ChatGPT的回答雖然有條有理,但頗為死板,像是高中語文的閱讀理解。
此外,ChatGPT還在另一次測試中出現(xiàn)了張冠李戴的問題,當輸入一篇短篇報道并要求ChatGPT進行擴寫時,不僅出現(xiàn)了原文中從未有過的材料,更是出現(xiàn)了數(shù)字謬誤。
文中紅線標劃之處都是ChatGPT的即興發(fā)揮,有關(guān)比爾蓋茨、李嘉誠包括此后對歐洲、亞洲富豪的敘述都是新產(chǎn)生的文本。而據(jù)調(diào)查,所謂比爾蓋茨在2022年減少350億美元身價,實際上應該為290億美元,350億美元應該為他截至2019年累計捐贈的數(shù)額。
在另一個問題的測試中,ChatGPT也坦誠了自己的局限。由于其儲存資料的時間限制在2021年前,所有2022年以后發(fā)生的事情其實在它的“大腦”里都無法正確處理。
人工智能確實能夠生成一些幾能亂真的新聞報道,但背后卻仍需要人工對事實進行不斷的核查。僅從這個角度來看,ChatGPT并沒有解放多少生產(chǎn)力。
而從其行文來看,其中并不帶很多的感染力,這也讓它在藝術(shù)創(chuàng)作方面無法與人類媲美。
這就讓這款人工智能有些進退兩難:若從事專業(yè)寫作,讀者不得不質(zhì)疑其準確性;而從事藝術(shù)創(chuàng)作,它又沒有豐富的表現(xiàn)力。
一致性問題
ChatGPT是建立在Instruction GPT(GPT-3的分支模型)上的語言模型,依托于Transformer模型,與上一代RNN模型相比,在處理速度和多任務處理上實現(xiàn)革新。
ChatGPT的語言模型在預訓練階段,被填鴨式塞進了過濾前容量達45TB的壓縮文本,且過濾后也有570GB的海量數(shù)據(jù),然后再通過多次的舉一反三來增加準確率。
在ChatGPT的邏輯里,“你”后面可以跟的字有不同的概率,可以是“你好”,也可以是“你們”等等,它需要做的是,就是回溯上文來推導下一個字最可能跟哪一個字。
而以前的RNN模型則是通過標記海量的數(shù)據(jù)集,先教會人工智能什么是對的,再讓其進行判斷。如果說RNN模型是嚴格按照原文做閱讀理解,那么GPT則做到了完形填空。
這就使得以Transformer為基礎(chǔ)的人工智能可以通過旁征博引來跳出“輸入”的前提,這大大緩解了“教學壓力”。
當然,帶來的后果也已經(jīng)顯現(xiàn):“跳脫”的人工智能很可能用一個詞改變整個語境。
就如試驗中出現(xiàn)的馬斯克反轉(zhuǎn)。在原文只給出馬斯克因收購推特而導致特斯拉股票暴跌,并讓他自己財富縮水的線索時,ChatGPT神來一筆地表示:馬斯克對此并不悔恨,甚至很有信心。
啼笑皆非的是,馬斯克本人可能并沒有這樣想。
而將這一問題深入思考,如果人們以后要求ChatGPT處理其它問題時,也出現(xiàn)了這樣的情況怎么辦?
比如,相親網(wǎng)站的智能客服回答客戶時,AI突然來一句離婚率連年上漲的話怎么辦?或是在合同撰寫中,AI標注了錯誤的金額怎么辦?
被“玩壞”的ChatGPT未來在何處?
大火之后,流量明星ChatGPT現(xiàn)在終于不得不陷入尷尬的境地:問的人太多,它回答不過來了。
其團隊苦心孤詣簡化邏輯,提高計算速度仍難以滿足人類的好奇心,此刻的ChatGPT如同被問煩了的人類,陷入了“自閉”之中。
拋開它被吹捧的外衣,ChatGPT實際上依靠的仍是人工智能領(lǐng)域十分底層的技術(shù),算法雖然有所改進,但其本身依舊受制于程序員圈定的邏輯和硬件支持之中。
而ChatGpt本身也可能只是一個半成品,其在網(wǎng)上試用的最主要目的在于進行更多的測試訓練,以便產(chǎn)生更多的有效標注數(shù)據(jù)。
換句話說,你我現(xiàn)在都是ChatGPT的免費教練。
值得期待的是,種種跡象表明,OpenAI很有可能在2023年推出GPT-4技術(shù),將在GPT-3模型基礎(chǔ)上繼續(xù)優(yōu)化。
在獲得了全球免費教練的“貼心指導”后,我們有理由相信OpenAI將會打造一個更具人性化,更智能的ChatGPT 2.0,并在商業(yè)中落地。甚至,我們也可以期待有一天ChatGPT可以真正從事需要高可信度的工作,而不會無辜地去捏造事實。
但僅就ChatGPT而言,這頭“新貴豬”可能還需要在風口再等一等。
網(wǎng)站首頁 |網(wǎng)站簡介 | 關(guān)于我們 | 廣告業(yè)務 | 投稿信箱
Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
中國網(wǎng)絡消費網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com