財聯(lián)社2月3日訊(編輯 劉蕊)隨著去年11月ChatGPT開放注冊以來,人工智能再度成為全球熱議的話題。從編程、寫稿到市場分析、平面設(shè)計,ChatGPT及其他人工智能工具已經(jīng)展現(xiàn)出了超出人們想象力的強大能力。
(資料圖)
然而這一進(jìn)展也引起了越來越多人的擔(dān)憂:人工智能未來是否真的會搶走我們的工作?
關(guān)于這個問題的答案,結(jié)合眾多專家的觀點,我們可以暫時得出一個壞消息和一個好消息。
壞消息是:可能真的會。
好消息是:至少短期內(nèi)還有難度。
AI已經(jīng)比很多真人更聰明?
自去年11月發(fā)布以來,ChatGPT已被用于撰寫求職信、創(chuàng)作兒童讀物,甚至幫助學(xué)生作弊。從編程、寫稿、到教育、法律,ChatGPT展現(xiàn)出來的能力之強,似乎已經(jīng)超出人們的想象。
事實上,在ChatGPT爆火以后,一些研究人員已經(jīng)對其在商業(yè)管理、醫(yī)療和法律方面的能力進(jìn)行了測試,而其展現(xiàn)出的能力可能比很多真人都要強。
比如,在一篇題為“ ChatGPT會獲得沃頓商學(xué)院MBA學(xué)位嗎?”的論文中,賓夕法尼亞大學(xué)教授Christian Terwiesch表示,他讓ChatGPT參加了沃頓商學(xué)院MBA課程的期末考試,結(jié)果發(fā)現(xiàn)該聊天機器人可以獲得B到B-左右的成績。
在另一項由醫(yī)療初創(chuàng)公司Ansible Health的醫(yī)生領(lǐng)導(dǎo)的研究中,研究人員發(fā)現(xiàn)ChatGPT在參加美國醫(yī)生執(zhí)照的三項考試中,考試成績可以達(dá)到或接近達(dá)到及格。
ChatGPT在法律領(lǐng)域的表現(xiàn)甚至更加優(yōu)秀:在去年12月的一篇論文中,研究人員發(fā)現(xiàn),該款聊天機器人可以獲得美國多州律師考試的及格分?jǐn)?shù) 。
ChatGPT的能力也已經(jīng)獲得了大型科技企業(yè)的認(rèn)可。比如最近,谷歌公司指出,如果ChatGPT機器人參加谷歌的面試,理論上他們會聘用該機器人作為其入門級程序員。
測試ChatGPT的亞馬遜員工也表示,這款聊天機器人在回答客戶支持問題方面“做得非常好”,在創(chuàng)建培訓(xùn)材料方面“非常出色”,在回答有關(guān)業(yè)務(wù)戰(zhàn)略的問題方面“非常強大”。
這樣優(yōu)秀的表現(xiàn)似乎已經(jīng)足以令人們擔(dān)憂,未來我們的工作崗位是否真的會被人工智能搶走?
AI更可能影響白領(lǐng)的工作?
事實上,關(guān)于人工智能是否會使取代人們工作的爭論早已不是什么新鮮事。
早在2013年,牛津大學(xué)就曾發(fā)布研究聲稱,人工智能可以在未來20年內(nèi)消除美國47%的工作崗位。
盡管布魯金斯學(xué)會高級研究員馬克·穆羅(Mark Muro)表示,這一預(yù)測可能并不準(zhǔn)確,但他也承認(rèn),ChatGPT這樣的新興人工智能技術(shù)很可能會影響人們——尤其是白領(lǐng)——在未來的工作。
據(jù)專家分析,人工智能最有可能搶走的工作似乎主要集中在白領(lǐng)行業(yè):技術(shù)類工作(程序員、軟件工程師、數(shù)據(jù)分析師)、媒體工作(廣告、內(nèi)容創(chuàng)作、技術(shù)寫作、新聞)、法律行業(yè)的工作(律師助理,律師助理)、市場研究分析師、教育類工作(老師)、財務(wù)工作(財務(wù)分析師、個人財務(wù)顧問)、交易員、平面設(shè)計師、會計、客戶服務(wù)代表。
雖然穆羅并不認(rèn)為人工智能會在短期內(nèi)搶走大量的工作崗位,但他也認(rèn)同,白領(lǐng)工人“似乎比藍(lán)領(lǐng)工人更容易接近這類新技術(shù)”,并且更可能在不久的將來使用人工智能技術(shù)來協(xié)助完成工作。
紐約大學(xué)計算機科學(xué)與電氣工程副教授赫格德(Chinmay Hegde)說:“新聞、高等教育、圖形和軟件設(shè)計等行業(yè)的某些工作——這些工作的確存在被人工智能補充的風(fēng)險?!彼J(rèn)為,ChatGPT目前的狀態(tài)“非常非常好,但并不完美”。
人工智能還不夠完美
正如赫格德教授所說,ChatGPT現(xiàn)在“還不夠完美”——這一點可能可以令大多數(shù)白領(lǐng)暫時松一口氣。
目前,ChatGPT最大的問題在于,其輸出的內(nèi)容還不夠準(zhǔn)確:盡管ChatGPT展現(xiàn)出了優(yōu)秀的語言組織能力,但正如其創(chuàng)建者OpenAI所提醒的,ChatGPT可能會寫出聽起來似是而非但實際上并不正確或毫無意義的答案 。
這背后的原因在于,ChatGPT是在對來自各種來源(包括互聯(lián)網(wǎng))的大量數(shù)據(jù)進(jìn)行訓(xùn)練后生成新內(nèi)容的,而互聯(lián)網(wǎng)內(nèi)容魚龍混雜,自然很容易包含大量錯誤信息。
正如麻省理工Tech Review曾發(fā)布的文章所說,像ChatGPT這樣的模型,很擅長生成華美的、仿佛由人類撰寫的語言。但它們對自己生成的東西缺乏真正理解,“在闡釋正確事實與假話時,抱有同樣的自信”。
這一點在財聯(lián)社《實測:神乎其神的ChatGPT能否取代新聞工作者?》中已經(jīng)得以佐證。在財聯(lián)社編輯在親身試用ChatGPT之后,很輕易的就能發(fā)現(xiàn)其撰寫的財經(jīng)新聞內(nèi)容存在謬誤。而如果不經(jīng)人工審核直接將ChatGPT所編寫的內(nèi)容當(dāng)做新聞發(fā)布,顯然會引起負(fù)面影響。
其次,ChatGPT還不夠智能。
今年1月25日,美國眾議員Jake Auchincloss使用ChatGPT撰寫了簡短的兩段演講并在國會宣讀,這是美國國會議員首次宣讀由人工智能撰寫的演講稿。
盡管這一事件聽起來十分具有轟動性,但Auchincloss本人也承認(rèn),他在利用ChatGPT撰寫這篇僅100字的演講稿的過程中,不得不多次改進(jìn)提示,才在最終生成了較為滿意的文本。
經(jīng)濟(jì)研究中心麥肯錫全球研究所的合伙人Anu Madgavkar也認(rèn)為,至少在看得見的未來,很多工作很多時候仍然需要由人類來做出判斷,以避免造成錯誤和偏見,“我們需要將這些東西(人工智能)視為提高生產(chǎn)力的工具,而不是完全替代我們的敵人?!?/p>
網(wǎng)站首頁 |網(wǎng)站簡介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
中國網(wǎng)絡(luò)消費網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復(fù)制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com