網(wǎng)絡(luò)消費(fèi)網(wǎng) >  科技 > > 正文
OpenAI發(fā)布GPT-4:能識(shí)圖能算稅,ChatGPT擺脫Chat,再次進(jìn)化
時(shí)間:2023-03-15 07:18:56

文|VickyXiao 編輯| VickyXiao


(資料圖片)

離發(fā)布僅僅四個(gè)多月,在ChatGPT展現(xiàn)了驚人的實(shí)力之后,OpenAI又扔下了一顆核彈:

GPT-4發(fā)布了。

在今天的博文中,OpenAI寫(xiě)到:

我們創(chuàng)建了GPT-4,這是 OpenAI 努力擴(kuò)展深度學(xué)習(xí)的最新里程碑。GPT-4 是一個(gè)大型多模態(tài)模型(接受圖像和文本輸入,提供文本輸出),雖然在許多現(xiàn)實(shí)世界場(chǎng)景中的能力不如人類(lèi),但在各種專(zhuān)業(yè)和學(xué)術(shù)基準(zhǔn)上表現(xiàn)出人類(lèi)水平。

好像和上一代還是差不多?放心,這是OpenAI謙虛了。

在隨后YouTube上進(jìn)行的Live Demo中,OpenAI的總裁和聯(lián)合創(chuàng)始人Greg Brockman展示了GPT-4的真正實(shí)力——總結(jié)文章、寫(xiě)代碼、報(bào)稅、寫(xiě)詩(shī)……GPT-3.5做不到的, GPT-4輕松拿下。

但這僅僅是表面,GPT再一次進(jìn)化,雖然可能不是你想的那樣。

新的模型:迭代優(yōu)化

怎么樣證明一個(gè)人比另外一個(gè)人更厲害?考試。

那怎么證明一個(gè)AI模型比另外一個(gè)更厲害?同樣是考試。

OpenAI讓GPT-4在參加了許多項(xiàng)人類(lèi)的通用考試,結(jié)果證明,它在許多測(cè)試和基準(zhǔn)測(cè)試中的表現(xiàn)比前一代確實(shí)大大提高:

根據(jù)他們的測(cè)試結(jié)果,GPT-4的SAT分?jǐn)?shù)增加了150分,現(xiàn)在能拿到1600分中的1410分;

它能通過(guò)模擬律師考試,分?jǐn)?shù)在應(yīng)試者的前10% 左右,相比之下,GPT-3.5的得分在倒數(shù) 10% 左右;

在SAT閱讀考試中和SAT數(shù)學(xué)考試中,GPT-4的成績(jī)都能達(dá)到領(lǐng)先的排名……

“我們花了6個(gè)月的時(shí)間使用我們的對(duì)抗性測(cè)試程序,以及在ChatGPT身上累積的經(jīng)驗(yàn)教訓(xùn)來(lái)迭代調(diào)整GPT-4,從而在真實(shí)性、可操縱性和拒絕超出設(shè)定范圍方面取得了有史以來(lái)最好的結(jié)果?!監(jiān)penAI稱(chēng)。

“我們的 GPT-4 訓(xùn)練運(yùn)行(至少對(duì)我們而言?。┣八从械胤€(wěn)定,成為第一個(gè)我們能夠提前準(zhǔn)確預(yù)測(cè)其訓(xùn)練性能的大型模型。”

此外,GPT-4還有了一個(gè)質(zhì)的飛躍——可以開(kāi)始處理圖像。

經(jīng)常使用ChatGPT的人肯定知道,它只能處理文本,但GPT-4開(kāi)始接受圖像作為輸入介質(zhì)。

在OpenAI提供的一個(gè)示例中,GPT-4準(zhǔn)確地回答了幾個(gè)網(wǎng)絡(luò)meme為什么搞笑的問(wèn)題(雖然解釋得并不好笑)。

圖源:《紐約時(shí)報(bào)》

在《紐約時(shí)報(bào)》提供的案例中,同樣可以看出GPT-4可以同時(shí)解析文本和圖像,這也使它能夠解釋更復(fù)雜的信息。不過(guò),目前圖像輸入的權(quán)限尚未公開(kāi),所以目前還沒(méi)看到更多例子來(lái)證明GPT-4在圖像方面的處理能力。

在隨后舉行的Live Demo中,OpenAI也表示,還沒(méi)有公開(kāi)提供這部分技術(shù),但已經(jīng)在和一家名為Be My Eyes的公司進(jìn)行合作,對(duì)方會(huì)使用GPT-4來(lái)構(gòu)建服務(wù)。

此外,GPT-4已經(jīng)開(kāi)始具備一點(diǎn)點(diǎn)的幽默感。它已經(jīng)可以講出一些模式化的、質(zhì)量不咋樣的冷笑話——但是,至少它已經(jīng)開(kāi)始理解“幽默”這一人類(lèi)特質(zhì)。

圖源:《紐約時(shí)報(bào)》

當(dāng)然,更多的方面,GPT-4的改進(jìn)是迭代性的。在隨意的談話中,GPT-3.5和GPT-4之間的區(qū)別可能很微妙。但是,當(dāng)任務(wù)的復(fù)雜性達(dá)到足夠的閾值時(shí),差異就會(huì)出現(xiàn)——GPT-4比GPT-3.5更可靠、更有創(chuàng)意,并且能夠處理更細(xì)微的指令,可以更準(zhǔn)確地解決難題。

比如說(shuō),北卡羅來(lái)納大學(xué)教堂山分校的醫(yī)學(xué)副教授兼心臟病專(zhuān)家Anil Gehi就向GPT-4描述了他一天前看過(guò)的一位患者的病史,包括患者術(shù)后出現(xiàn)的并發(fā)癥被送往醫(yī)院,描述中包含幾個(gè)外行人無(wú)法識(shí)別的醫(yī)學(xué)術(shù)語(yǔ)。

當(dāng)Gehi醫(yī)生問(wèn)GPT-4應(yīng)該如何治療病人時(shí),GPT-4給了他完美的答案?!斑@正是我們對(duì)待病人的方式,”Gehi醫(yī)生說(shuō)。當(dāng)他嘗試其他場(chǎng)景時(shí),GPT-4給出了同樣令人印象深刻的答案。

當(dāng)然另外一個(gè)好消息是,GPT-4對(duì)于英語(yǔ)以外的語(yǔ)種支持也得到了大大的優(yōu)化。

許多現(xiàn)有的機(jī)器學(xué)習(xí)基準(zhǔn)測(cè)試都是用英語(yǔ)編寫(xiě)的。為了初步了解GPT-4在其他語(yǔ)言上的能力,OpenAI使用 Azure Translate,將一套涵蓋57個(gè)主題的1.4萬(wàn)多項(xiàng)選擇題的MMLU基準(zhǔn),翻譯成了多種語(yǔ)言,然后進(jìn)行測(cè)試。

在測(cè)試的26種語(yǔ)言中,有24種語(yǔ)言,GPT-4優(yōu)于 GPT-3.5和其他大語(yǔ)言模型的英語(yǔ)語(yǔ)言性能。

其中中文達(dá)到了80.1%的準(zhǔn)確性,而GPT-3.5的英文的準(zhǔn)確性為70.1%,也就是說(shuō),在這個(gè)測(cè)試中,GPT-4對(duì)于中文的語(yǔ)言理解,已經(jīng)優(yōu)于此前ChatGPT對(duì)于英文的理解。

Live Demo:報(bào)稅、寫(xiě)詩(shī)、寫(xiě)代碼,無(wú)所不能

如果說(shuō)著這些數(shù)據(jù)、案例,似乎還難以讓人直觀感受到GPT-4的真正實(shí)力,那么OpenAI的總裁和聯(lián)合創(chuàng)始人Greg Brockman,就親自在YouTube上進(jìn)行了一把直播,來(lái)實(shí)時(shí)演示Live Demo中,展示了GPT-4的真正實(shí)力——總結(jié)文章、寫(xiě)代碼、報(bào)稅、寫(xiě)詩(shī)……GPT-3.5做不到的, GPT-4輕松拿下。

Greg Brockman展示了GPT-4的新的使用界面,左側(cè)是系統(tǒng)框,可以規(guī)定AI的角色,以及整體的回答原則,中間則是對(duì)話框,可以輸入具體的對(duì)話形態(tài)來(lái)對(duì)具體的內(nèi)容進(jìn)行調(diào)整、追問(wèn)或者給出反饋。最右側(cè)是一些參數(shù)設(shè)置。

在演示中,Brockman就使用使用左側(cè)的“系統(tǒng)”框,讓GPT-4相繼成為“ChatGPT”、“AI編程助手”、“TaxGPT”,來(lái)解決不同的問(wèn)題。

ChatGPT模式下,GPT-4可以處理超過(guò)2.5萬(wàn)字的文本,可以輕松地總結(jié)一篇超長(zhǎng)文章的核心內(nèi)容,比如把OpenAI今天發(fā)布的這篇講述GPT-4的雄文總結(jié)要點(diǎn)。

甚至還可以像在演示中的那樣,以各種奇怪的形式來(lái)提煉它——比如,以全是“G字母開(kāi)頭”的單詞來(lái)總結(jié)。

或者要它把這些內(nèi)容要點(diǎn)寫(xiě)成一首詩(shī)。

在“AI編程助手”模式下,還可以讓它輕松寫(xiě)代碼,生成一個(gè)網(wǎng)站,或者更復(fù)雜的,寫(xiě)一個(gè)基于Discord的機(jī)器人,如果出現(xiàn)錯(cuò)誤,比如要調(diào)用比較新的API而出錯(cuò),甚至也不需要向它解釋?zhuān)前彦e(cuò)誤代碼復(fù)制進(jìn)去,它就會(huì)自動(dòng)糾錯(cuò),生成新的代碼。

或者要它變身成TaxGPT,要它基于稅務(wù)法則,來(lái)計(jì)算出一對(duì)夫妻要繳納多少稅,而且還要把計(jì)算理由一步步寫(xiě)出來(lái),讓人們可以檢閱。

對(duì)于GPT-4展示出的專(zhuān)業(yè)能力,Greg Brockman大為贊賞,他表示那段稅務(wù)文件,他自己讀了半個(gè)小時(shí)也沒(méi)有搞懂,然而GPT-4卻可以很快給出答案。

或許這段不到一個(gè)小時(shí)的演示,才真正道出了GPT-4的強(qiáng)大之處——它不再僅僅是普通用戶(hù)的“聊天機(jī)器人”,而將成為開(kāi)發(fā)者手中的利器,在文本、編程、稅務(wù)以及更多可以想見(jiàn)的領(lǐng)域,成為強(qiáng)大工具的開(kāi)發(fā)基石。

從這一點(diǎn)來(lái)說(shuō),它比ChatGPT帶來(lái)的影響,將更加廣泛。

滿(mǎn)嘴跑火車(chē):還在跑,但是好一點(diǎn)

不得不提的是,盡管功能強(qiáng)大,但 GPT-4 與早期的 GPT 模型具有相似的局限性。最重要的是,它仍然不完全可靠——它仍然會(huì)大膽自信地編造事實(shí),并且會(huì)出現(xiàn)推理錯(cuò)誤。OpenAI強(qiáng)調(diào),仍然推薦在使用它的時(shí)候要附加諸如人工審查、或者附加上下文,甚至在高風(fēng)險(xiǎn)情境中,要避免使用它。

在GPT-4公告中,OpenAI強(qiáng)調(diào)該系統(tǒng)已經(jīng)接受了六個(gè)月的安全培訓(xùn),在內(nèi)部對(duì)抗性真實(shí)性評(píng)估中,GPT-4的得分比最新的GPT-3.5高:“響應(yīng)不允許內(nèi)容的請(qǐng)求的可能性降低了 82%,產(chǎn)生真實(shí)事實(shí)的可能性提高了 40%,優(yōu)于 GPT-3.5?!?/p>

這也意味著, GPT-4 相對(duì)于以前的模型來(lái)說(shuō),還是顯著地減少了一本正經(jīng)胡說(shuō)八道的頻率,而且用戶(hù)千方百計(jì)提示它以讓它說(shuō)出被禁內(nèi)容的成功率,也小了很多。

但是,這并不意味著系統(tǒng)不會(huì)出錯(cuò)或輸出有害內(nèi)容。例如,微軟透露其Bing聊天機(jī)器人其實(shí)一直由GPT-4提供支持,但許多用戶(hù)還是能夠以各種創(chuàng)造性的方式打破 Bing的護(hù)欄,讓機(jī)器人提供危險(xiǎn)的建議、威脅用戶(hù)和編造信息。

此外,GPT-4仍然是基于2021年9月之前的數(shù)據(jù)訓(xùn)練的,這也意味著它和前一代一樣,仍然缺乏對(duì)于2021年9月之后的數(shù)據(jù)的有效理解。

“GPT-4 仍有許多已知的局限性,我們正在努力解決,例如社會(huì)偏見(jiàn)、幻覺(jué)和對(duì)抗性提示?!監(jiān)penAI表示。

應(yīng)用:面向開(kāi)發(fā)者,越來(lái)越貴

當(dāng)然,除了表現(xiàn)方面,還有一個(gè)明顯的不同是,ChatGPT-4比以前的版本“更大”,這意味著它已經(jīng)接受了更多數(shù)據(jù)的訓(xùn)練,因此運(yùn)行起來(lái)也更加昂貴。OpenAI 只表示它使用了微軟Azure來(lái)訓(xùn)練模型,但沒(méi)有公布有關(guān)具體模型大小或用于訓(xùn)練它的硬件的詳細(xì)信息。

這也意味使用它的成本越來(lái)越高。與ChatGPT不同的是,這個(gè)新模型目前還不能免費(fèi)公開(kāi)測(cè)試,雖然它鼓勵(lì)開(kāi)發(fā)者申請(qǐng)?jiān)囉茫菍⑿枰系却麊巍?/p>

新模型將提供給ChatGPT的付費(fèi)用戶(hù)ChatGPT Plus(每月20美元),也將作為API的一部分提供,允許開(kāi)發(fā)者付費(fèi)將AI集成到他們的應(yīng)用程序中。OpenAI表示,多家公司已經(jīng)將GPT-4集成到他們的產(chǎn)品中,包 Duolingo、Stripe和Khan Academy等。

當(dāng)然,如果你不是開(kāi)發(fā)者或者付費(fèi)用戶(hù),但是實(shí)在是想嘗嘗鮮,微軟的Bing會(huì)是最好的選擇——Bing的AI聊天機(jī)器人,過(guò)去六周以來(lái),已經(jīng)開(kāi)始使用GPT-4了。

你感覺(jué)到了嗎?

*參考資料:除去特別說(shuō)明,本文圖片均來(lái)自O(shè)penAI官網(wǎng)和演示視頻,版權(quán)歸OpenAI所有

注:封面圖來(lái)自于Pexels,版權(quán)屬于原作者。如果不同意使用,請(qǐng)盡快聯(lián)系我們,我們會(huì)立即刪除。

關(guān)鍵詞:

版權(quán)聲明:
    凡注明來(lái)網(wǎng)絡(luò)消費(fèi)網(wǎng)的作品,版權(quán)均屬網(wǎng)絡(luò)消費(fèi)網(wǎng)所有,未經(jīng)授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明"來(lái)源:網(wǎng)絡(luò)消費(fèi)網(wǎng)"。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責(zé)任。
    除來(lái)源署名為網(wǎng)絡(luò)消費(fèi)網(wǎng)稿件外,其他所轉(zhuǎn)載內(nèi)容之原創(chuàng)性、真實(shí)性、完整性、及時(shí)性本站不作任何保證或承諾,請(qǐng)讀者僅作參考并自行核實(shí)。
熱文

網(wǎng)站首頁(yè) |網(wǎng)站簡(jiǎn)介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
 

Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
 

中國(guó)網(wǎng)絡(luò)消費(fèi)網(wǎng) 版權(quán)所有 未經(jīng)書(shū)面授權(quán) 不得復(fù)制或建立鏡像
 

聯(lián)系郵箱:920 891 263@qq.com

備案號(hào):京ICP備2022016840號(hào)-15

營(yíng)業(yè)執(zhí)照公示信息