參考消息網(wǎng)2月22日報道英國《金融時報》網(wǎng)站1月25日刊登題為《生成式人工智能:機器學習的新時代將如何影響你?》的文章,作者是理查德·沃特斯。內(nèi)容編譯如下:
就在10多年前,三名人工智能研究者取得了一項永久改變這個領(lǐng)域的突破。
【資料圖】
他們用在世界各地拍攝的120萬張圖像來訓練“AlexNet”系統(tǒng),使其能夠識別從集裝箱船到豹子等各種物體,準確性遠高于以往的計算機。
這一壯舉不僅幫助三名研究者贏得了圖像網(wǎng)大規(guī)模視覺識別挑戰(zhàn)賽(ImageNet)的年度競賽,還展示了機器學習的潛力,并在科技界引發(fā)一場將人工智能引入主流的競賽。
人工智能競賽白熱化
從那時起,計算機的人工智能時代基本上在幕后形成。機器學習是一項涉及計算機從數(shù)據(jù)中學習的基礎(chǔ)技術(shù),已廣泛應用于識別信用卡欺詐、提高在線內(nèi)容和廣告相關(guān)性等領(lǐng)域。如果說機器人開始要搶走所有的工作,那基本上是在人們看不到的地方發(fā)生的。
直到現(xiàn)在,人工智能領(lǐng)域的另一項突破剛剛撼動了科技界。這一次,機器在人們看得到的地方運行——或許它們終于準備好兌現(xiàn)取代數(shù)百萬個工作崗位的“威脅”。
去年11月底,問答和文本生成系統(tǒng)ChatGPT以一種在科幻小說之外罕見的方式,闖入公眾視野。該系統(tǒng)由總部位于舊金山的開放人工智能研究中心(OpenAI)研發(fā),可根據(jù)指令生成內(nèi)容,在新一波所謂“生成式”人工智能系統(tǒng)中最為引人注目。
如果你在ChatGPT中輸入要查詢的信息,它會用一個簡短的段落給出答案和一些背景信息。例如,你問它誰贏得了美國2020年總統(tǒng)大選,它會列出結(jié)果并告訴你喬·拜登何時就職。
ChatGPT簡單易用,能瞬間給出答案,就像人類在回答。該系統(tǒng)有望將人工智能引入日常生活。有消息稱,微軟公司已對開放人工智能研究中心投資數(shù)十億美元,這幾乎證實了,這項技術(shù)將在人工智能革命的下一階段發(fā)揮核心作用。
ChatGPT是一系列日益引人注目的人工智能公開展示的最新一個。開放人工智能研究中心的另一個系統(tǒng)——自動書寫系統(tǒng)GPT-3,在2020年年中發(fā)布時震驚了科技界。其他公司緊隨其后推出了所謂的“大型語言模型”。去年,該領(lǐng)域擴展到圖像生成,開放人工智能研究中心的系統(tǒng)Dall-E 2、“穩(wěn)定”人工智能公司(Stability AI)的開源系統(tǒng)Stable Diffusion以及Midjourney系統(tǒng)紛紛問世。
這些突破引發(fā)人們爭相尋找人工智能的新應用。
如果計算機能夠?qū)懽骱蜕蓤D像,那么在正確的數(shù)據(jù)訓練下,還有什么是它們無法生成的嗎?谷歌展示了兩個實驗性系統(tǒng),可以根據(jù)簡單提示生成視頻,還有一個可以回答數(shù)學問題?!胺€(wěn)定”人工智能等公司已將這項技術(shù)應用于音樂。
這項技術(shù)還可用于向軟件開發(fā)人員建議新的代碼行,甚至整個程序。制藥公司夢想著用它以更有針對性的方式研制新藥。美國生物技術(shù)企業(yè)阿布西公司本月表示,它已利用人工智能設計出新抗體。該公司表示,這可將一種藥物進入臨床試驗所需時間從四年縮短兩年多。
但隨著科技行業(yè)競相將這項新技術(shù)呈現(xiàn)給全球受眾,我們需要考慮它可能產(chǎn)生深遠的社會影響。
例如,讓ChatGPT以12歲孩子的口吻寫一篇關(guān)于滑鐵盧戰(zhàn)役的文章,你就能得到按需交付的小學生家庭作業(yè)。更嚴重的是,人工智能有可能被故意用來生成大量虛假信息,它還可能自動完成大量工作,遠不止最明顯受沖擊的創(chuàng)造性工作。
微軟人工智能平臺負責人埃里克·博伊德說:“這些模型將改變?nèi)伺c電腦互動的方式。”它們將“以一種前所未有的方式理解你的意圖,并將其轉(zhuǎn)化為計算機行為”。他還說,因此它將成為一項基礎(chǔ)技術(shù),“涉及現(xiàn)在幾乎所有的東西”。
谷歌研究科技對社會影響的高級副總裁詹姆斯·馬尼卡表示,對任何需要在工作中提出新想法的人來說,這類系統(tǒng)的輸出可以“打破思維禁錮”。內(nèi)置在日常軟件工具中,它們可以提出想法、檢查工作,甚至生成大量內(nèi)容。
信息可靠性難以保證
然而,盡管生成式人工智能易于使用,并有可能顛覆大部分技術(shù)領(lǐng)域,但對于構(gòu)建它并試圖將它應用于實踐的公司,以及許多可能不久就會在工作或個人生活中遇到它的人來說,它帶來了巨大的挑戰(zhàn)。
最重要的是可靠性問題。計算機可能給出聽起來可信的答案,但不可能完全相信它們說的話。它們通過研究海量數(shù)據(jù),根據(jù)概率假設做出最佳猜測,但并沒有真正理解數(shù)據(jù)產(chǎn)生的結(jié)果。
圣菲研究所教授梅拉妮·米切爾表示:“它們對單個對話之外的事情一無所知,它們無法了解你,也不知道詞語在現(xiàn)實世界中意味著什么。”它們只是對任何提示給出大量聽起來有說服力的答案,它們是聰明但無腦的模仿者,無法保證它們的輸出只是數(shù)字幻覺。
此前已有圖像展示說明,這項技術(shù)可以產(chǎn)生聽起來可信但不值得信任的結(jié)果。
例如,去年年底,臉書的母公司元宇宙平臺公司展示了名為Galactica的生成系統(tǒng),該系統(tǒng)接受了學術(shù)論文的訓練。很快人們發(fā)現(xiàn),該系統(tǒng)可根據(jù)要求發(fā)布聽起來可信但實際上虛假的研究,導致臉書不得不在幾天后撤回了該系統(tǒng)。
ChatGPT的研發(fā)者承認了這些缺點。開放人工智能研究中心表示,該系統(tǒng)有時會給出“無厘頭”的答案,因為在訓練人工智能方面,“目前沒有任何真相來源”;而且,所謂的“監(jiān)督式學習”(即由人類直接訓練、而不是讓人工智能自己學習)并不奏效,因為系統(tǒng)往往比人類老師更善于找到“理想答案”。
一種潛在的解決方案是,在生成系統(tǒng)的結(jié)果發(fā)布之前提交感官檢查。馬尼卡說,谷歌在2021年公布了實驗性的LaMDA系統(tǒng),該系統(tǒng)能對每個提示作出約20種不同的響應,然后評估每種響應的“安全性、毒性和合理性”。
然而,斯坦福大學計算機科學副教授珀西·梁(音)表示,任何依賴人類來驗證人工智能輸出結(jié)果的系統(tǒng)都會引出自己的問題。他說,這可能會教會人工智能如何“生成有欺騙性但貌似可信的東西,愚弄人類”。他說:“事實是,真相如此撲朔迷離,而人類并不擅長于此,這可能令人擔憂。”
這項技術(shù)的支持者說,有一些實用的方法可以利用它,而不必試圖回答這些更深層次的哲學問題。由微軟聯(lián)合創(chuàng)始人保羅·艾倫創(chuàng)立的人工智能研究所A12的顧問兼董事會成員奧倫·埃齊奧尼表示,就像互聯(lián)網(wǎng)搜索引擎既能提供有用的結(jié)果,也能提供錯誤的信息一樣,人們將設法最大限度地利用這些系統(tǒng)。
但讓人類事后批評機器也許并不總是答案。研究人工智能應用的科技行業(yè)組織“人工智能合作組織”的首席執(zhí)行官麗貝卡·芬利表示,在專業(yè)環(huán)境中使用機器學習系統(tǒng)已經(jīng)表明,人們“過于相信人工智能系統(tǒng)和模型作出的預測”。
她還說,問題在于,人們傾向于“在與這些模型互動時,灌輸人之所以為人的不同方面”,這意味著,他們忘記了系統(tǒng)并沒有真正“理解”他們所說的話。
信任和可靠性問題使這項技術(shù)有可能被壞人濫用。對任何有意誤導的人來說,這些機器可能成為虛假信息工廠,能夠生產(chǎn)大量內(nèi)容,淹沒社交媒體和其他渠道。它們可能還會模仿特定人物的寫作風格或說話聲音。埃齊奧尼說:“制造虛假內(nèi)容將非常容易、廉價和廣泛?!?/p>
“穩(wěn)定”人工智能公司負責人伊馬德·莫斯塔克說,這是人工智能固有的問題。他說:“這是一種人們可以道德或不道德地、合法或非法地、遵循或不遵循倫理使用的手段。”他說,“壞人已經(jīng)擁有先進的人工智能”,唯一的防御措施就是盡可能廣泛地推廣這項技術(shù),并對所有人開放。
受威脅工作崗位增多
生成式人工智能的興起也引發(fā)了有關(guān)人工智能和自動化對就業(yè)影響的新一輪大討論:機器會取代工人,還是通過接管工作的常規(guī)部分,提高現(xiàn)有工人的生產(chǎn)力并增強他們的成就感?
最明顯的是,涉及大量設計或?qū)懽鲀?nèi)容的工作面臨風險。去年夏末,Stability Diffusion系統(tǒng)的問世令商業(yè)藝術(shù)和設計界不寒而栗,因為它能根據(jù)提示即時生成圖像。
一些科技公司已經(jīng)在嘗試將這項技術(shù)應用于廣告,包括攀登人工智能公司(Scale AI),該公司已經(jīng)在訓練人工智能模型生成廣告圖像。
這可能會威脅到任何內(nèi)容創(chuàng)造者的生計。莫斯塔克說:“它徹底改變了整個媒體行業(yè)。世界上每一個主要內(nèi)容提供商都認為,他們需要一個元宇宙策略:他們需要一個生成媒體策略?!?/p>
據(jù)一些可能被人工智能取代的職業(yè)人士說,這不僅僅是薪酬問題。當歌手兼詞曲作者尼克·凱夫聽到ChatGPT寫的歌就像自己寫的時,他驚呆了。他在網(wǎng)上寫道:“歌曲孕育于痛苦,我的意思是,它們基于人類復雜的、內(nèi)在的創(chuàng)作斗爭,而據(jù)我所知,算法是沒有感覺的。數(shù)據(jù)不會痛苦。”
技術(shù)樂觀主義者認為,科技會放大而不是取代人類的創(chuàng)造力。斯坦福大學的珀西·梁說,有了人工智能圖像生成器,設計師可能變得“更加雄心勃勃”。他說:“你可以創(chuàng)建完整的視頻或全新的系列,而不僅僅是單個圖像?!?/p>
版權(quán)制度最終可能發(fā)揮重要作用。應用這項技術(shù)的公司聲稱,由于美國法律允許有限使用受版權(quán)保護的材料(即“合理使用”),它們可以自由地利用所有可用數(shù)據(jù)來訓練自己的系統(tǒng)。
其他人則不同意這種觀點。上周,蓋帝圖像公司和三名藝術(shù)家在美國和英國對“穩(wěn)定”人工智能等公司提起訴訟,這是首個針對人工智能公司肆意使用受版權(quán)保護圖像來訓練其系統(tǒng)的法律訴訟。
人工智能公司的代理律師表示,該領(lǐng)域的每個人都已經(jīng)為不可避免的訴訟做好準備,這些訴訟將制定基本規(guī)則。對科技行業(yè)來說,圍繞數(shù)據(jù)在訓練人工智能方面作用的爭論,可能會變得與智能手機時代初期的專利戰(zhàn)一樣重要。
網(wǎng)站首頁 |網(wǎng)站簡介 | 關(guān)于我們 | 廣告業(yè)務 | 投稿信箱
Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
中國網(wǎng)絡消費網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com