近幾個月,ChatGPT 爆火出圈,風頭無兩。人們大多把關(guān)注重點放在了 ChatGPT 強大的生成功能和應(yīng)用場景上,卻很少關(guān)心模型的應(yīng)用成本。
雖然 ChatGPT API 開放之后,使用成本降低了九成,但對于 OpenAI 和集成 ChatGPT 的科技公司來說,情況卻大不相同。
眾所周知,在谷歌搜索的時代,搜索引擎的工作原理是建立巨大的網(wǎng)絡(luò)索引,在用戶進行搜索時,這些索引條目會被掃描、排名和分類,隨后結(jié)果顯示出最相關(guān)的條目。谷歌的搜索結(jié)果頁面實際上會告訴用戶搜索所需要的時間(通常不到一秒)。
(資料圖片)
而 ChatGPT 式的搜索引擎會在每次搜索時啟動一個模仿人腦的巨大神經(jīng)網(wǎng)絡(luò),生成一堆文本,可能還會查詢大型搜索索引以獲取事實信息。這意味著用戶與其交互的時間可能遠遠超過幾分之一秒,并且這些額外的處理需要花費更多的成本。
據(jù)路透社報道,Alphabet(谷歌的母公司)的董事長 John Hennessy 及幾位分析師交談之后寫道:「與 AI 大型語言模型交流詢問的成本可能是標準關(guān)鍵字搜索的 10 倍以上」。對于致力于推行 ChatGPT 式搜索引擎的谷歌、微軟來說,這可能意味著「數(shù)十億美元的額外成本」。
Alphabet 董事長 John Hennessy。
雖然 ChatGPT 這個研發(fā)熱點肯定是要跟的,但付出的成本是各家公司能夠承擔的嗎?
微軟:上萬塊 A100,為 OpenAI 造超算
微軟的答案是肯定的,而且它還要進一步增加相關(guān)的研發(fā)投入。
彭博社報道,微軟花費了數(shù)億美元為 OpenAI 建造了一臺巨大的超級計算機,使用了「成千上萬塊 GPU」以推動 OpenAI 的 ChatGPT 聊天機器人。
據(jù)彭博社獲得的回復,微軟人工智能和云計算副總裁 Scott Guthrie 說,公司在該項目上花費了數(shù)億美元的資金。雖然這對微軟來說可能不值一提,畢竟它最近延長了對 OpenAI 的多年、數(shù)十億美元的投資,但這無疑表明,微軟愿意在人工智能領(lǐng)域投入更多資金。
在本周一的博客中,微軟介紹了它是如何創(chuàng)建 OpenAI 使用的強大的 Azure 人工智能基礎(chǔ)設(shè)施,以及其系統(tǒng)如何變得更加強大。
比如微軟推出了新的虛擬機 —— 使用英偉達 H100 和 A100 Tensor Core GPU 以及 Quantum-2 InfiniBand 網(wǎng)絡(luò),這是兩家公司去年就預告過的項目。這將允許 OpenAI 和其他依賴 Azure 的公司訓練更大、更復雜的 AI 模型。
「大約五年前,OpenAI 向微軟提出了一個大膽的想法,即它可以構(gòu)建將永遠改變?nèi)藗兣c計算機交互方式的人工智能系統(tǒng)。」John Roach 寫道。
當時,沒有人知道這將意味著什么?,F(xiàn)在,我們理解了這種設(shè)想 ——ChatGPT,并體驗到了它的魔力:AI 系統(tǒng)可以創(chuàng)建人們用簡單語言描述的任何圖片,聊天機器人可以根據(jù)少量單詞編寫說唱歌詞、起草電子郵件和規(guī)劃整個菜單。
像這樣的技術(shù),在當時看來未必不可能。只是為了構(gòu)建它,OpenAI 需要真正大規(guī)模的計算能力。
2019 年,微軟公司宣布向 OpenAI 投資 10 億美元,同意為這家 AI 研究初創(chuàng)公司建造一臺大規(guī)模的前沿超級計算機。當時唯一的問題是:微軟沒有 OpenAI 所需要的東西,也不完全確定能在自己的 Azure 云服務(wù)中建造這么大的東西而不崩潰。現(xiàn)在,這個承諾終于兌現(xiàn)了。
微軟表示,為了建立給 OpenAI 項目提供動力的超級計算機,它在 Azure 云計算平臺上「將成千上萬的英偉達 GPU 連接在一起」。反過來,這使得 OpenAI 能夠訓練出越來越強大的模型,并「釋放出 AI 能力」,比如 ChatGPT 和必應(yīng)工具。
這些突破的關(guān)鍵是學習如何構(gòu)建、操作和維護數(shù)萬個在高吞吐量、低延遲 InfiniBand 網(wǎng)絡(luò)上相互連接的共置 GPU。這個規(guī)模甚至比 GPU 和網(wǎng)絡(luò)設(shè)備供應(yīng)商測試過的還要大。這是一片未知的領(lǐng)域,沒有人確切知道硬件是否可以在不損壞的情況下被推到那么遠。為了訓練一個大型語言模型,計算工作量被分配到一個集群中的數(shù)千個 GPU 上。在計算的某些階段(稱為 allreduce),GPU 會交換有關(guān)它們已完成工作的信息。InfiniBand 網(wǎng)絡(luò)加速了這一階段,該階段必須在 GPU 開始下一個計算塊之前完成。
「我們看到的是,我們將需要建立專注于實現(xiàn)大型訓練工作負載的特殊用途集群,而 OpenAI 是這一點的早期證明之一,」微軟 Azure AI 企業(yè)副總裁 Eric Boyd 在一份聲明中說。「我們與他們緊密合作,了解他們在建立訓練環(huán)境時尋找的、需要的關(guān)鍵是什么?!?/p>
谷歌:加緊內(nèi)測 Big Bard
相比于微軟,谷歌的搜索成本問題無疑更大。微軟之所以如此渴望撼動谷歌搜索引擎,部分原因就是在大多數(shù)市場份額估計中,必應(yīng)只占全球搜索市場的 3%,而谷歌約占 93%。搜索是谷歌的主要業(yè)務(wù),而微軟并不需要擔心這一點。
根據(jù) Morgan Stanley 的估算 —— 假設(shè)「類 ChatGPT 的 AI 能夠用 50 個詞(word)的答案處理一半的查詢」,谷歌每年的成本將增加 60 億美元。
有趣的是,谷歌從一開始就對模型規(guī)模持謹慎態(tài)度。谷歌表示 Bard 聊天機器人最初發(fā)布的是 LaMDA 輕量級模型版本,原因是「這個更小的模型需要更少的計算能力,才能夠擴展到更多的用戶,得到更多的反饋?!挂肋@不是谷歌的常見操作,谷歌經(jīng)常在模型規(guī)模方面讓其他公司相形見絀,在計算資源方面也是極具優(yōu)勢?!敢?guī)?!怪皇枪雀杌c錢就能解決的問題,除非成本增加的不是一點半點。
根據(jù) Insider 的最新消息,谷歌正在測試一個名為 Big Bard 的模型,它是 Bard 的高級版本,使用了與 Bard 相同的語言模型 LaMDA。
根據(jù)內(nèi)測示例顯示,對于相同的問題,Big Bard 給出了更豐富、更人性化的回答,它通常也更健談、更隨意。不過不是所有員工都可以內(nèi)測 Big Bard ,它是有限制的,僅供部分員工使用,而 Bard 則對所有谷歌員工開放。
除此以外,Big Bard 使用更大規(guī)模的 LaMDA,AI 技術(shù)為其聊天機器人提供支持。谷歌表示 Big Bard 是其在布局對話模型計劃中的一部分,該計劃旨在創(chuàng)建一個通用聊天機器人,可以回答用戶在其產(chǎn)品和服務(wù)中提出的任何問題或請求。
出于成本考慮,谷歌可能會推出 Bard 的限量版。然而,這場人工智能競賽并沒有放緩的跡象。上周有消息傳出,多模態(tài)的 GPT-4 將于本周發(fā)布??磥砦④浐凸雀璧膶Υ蛞粫r半會兒還停不下來。
商業(yè)模式如何跑通?
類 ChatGPT 產(chǎn)品能為科技公司帶來多大的收益,目前很難衡量。有一個已知的例子,谷歌和亞馬遜的語音助手多年來一直保持「以后再想辦法」的盈利思路,目前都未能產(chǎn)生利潤,而且它們是比 ChatGPT 更受限制的聊天機器人。OpenAI 在開放 ChatGPT API 之后,以 token 為單位收取費用,但這對搜索引擎來說并不適用。
微軟方面已經(jīng)準備「在必應(yīng)聊天機器人生成的回復中插入廣告」,補償其高昂的服務(wù)器運行成本。
在開放 API 之后,越來越多的企業(yè)用戶將與 OpenAI 合作,將其 ChatGPT 服務(wù)集成到自己的產(chǎn)品中。大多數(shù)公司使用 ChatGPT 等大型語言模型來幫助客戶制作企業(yè)博客、營銷電子郵件等等,而工作量比以前少得多。然而,這些公司的產(chǎn)品幾乎都是給大型語言模型套了一個簡單的「外殼」,因此很難實現(xiàn)差異化競爭優(yōu)勢。
實際上,OpenAI 最近還推出了 4 個 GPT-3 模型 ——Davinci、Curie、Babbage 和 Ada。其中 Davinci 是功能最強大的模型,Ada 則是速度最快的。Davinci 被一些公司認為是開發(fā)產(chǎn)品的更好選擇,它的輸出往往比 ChatGPT 的更簡潔、更直接,并且在某些類別的 prompt 下也表現(xiàn)更好。而 ChatGPT 在一些關(guān)鍵領(lǐng)域優(yōu)于 Davinci,包括數(shù)學、情緒分析等等。
值得注意的是,OpenAI 為 Davinci API 設(shè)置的定價是 ChatGPT 的十倍。因此近幾周內(nèi),大多數(shù) Davinci 用戶可能會涌向 ChatGPT。對于 OpenAI 和其競爭對手(包括 Cohere、AI21、Anthropic、Hugging Face)來說,Davinci 的定價似乎更加合理。至于 ChatGPT,它的超低定價會讓行業(yè)內(nèi)的同類產(chǎn)品價格大幅下跌,包括 OpenAI 自己的產(chǎn)品。
將 ChatGPT API 的價格設(shè)置得如此低的水平(只有原來的十分之一)之后,很難說 OpenAI 會從 ChatGPT 或其他任何模型中獲利還是虧損,因為這些超大規(guī)模的模型查詢成本非常高。有人猜測:OpenAI 可能已經(jīng)通過剔除自 11 月首次亮相以來全世界提出的無數(shù) ChatGPT 查詢中很少激活的參數(shù),修剪了支持 ChatGPT 的模型以降低模型成本。但這只是一個猜測。
接下來的一段時間,OpenAI 可能會因為 ChatGPT 被大量使用而虧損。這聽起來有點反直覺,但大型語言模型的訓練和運行成本確實非常高。但對于獲得微軟 100 億美元和 GPU 全力支持的 OpenAI 來說,「薄利多銷」也能讓它比其他競爭對手走得更遠。
關(guān)鍵詞:
網(wǎng)站首頁 |網(wǎng)站簡介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
中國網(wǎng)絡(luò)消費網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com