網(wǎng)絡消費網(wǎng) >  科技 > > 正文
熱議:ChatGPT是否意味著“意見領袖”的終結?
時間:2023-03-16 14:13:20

[Photo: Jeremy Waterhouse/Pexels; Rawpixel]

在過去兩天里,我與那些“擔心人工智能對自己的工作和生計造成影響的人”進行了 20 次對話。當然,我可能一直在尋求這些對話,因為作為一名學者和幾家商業(yè)出版物的撰稿人,我也很焦慮!

創(chuàng)作者、藝術家、教練、程序員、醫(yī)生、作家、專家和意見領袖們都在努力應對生成式人工智能(如 ChatGPT、DALL-E 和其他高級人工智能產(chǎn)品)對其工作、激情和收入的影響。


(資料圖)

一方面,這看起來像是一種夢想成真,你可以受益于在人工智能的協(xié)助下更高效地工作。在人工智能的幫助下,似乎任何人都可以看起來像一個專家和創(chuàng)造者。畢竟,它可以寫一份足以入圍面試的工作申請,可以通過美國醫(yī)療執(zhí)照考試和律師資格考試的部分內(nèi)容,可以編寫代碼、生成文本和制作可銷售的藝術作品,并(在某種程度上)提供心理健康治療。

對于相關工作者來說,這一切都聽起來太可怕了。深呼吸,現(xiàn)在,讓我們誠實地談談焦慮,或者說是 AI 式焦慮(AI-xiety)。

1. 世界末日?

你感到的不安和存在的恐懼并不是沒有根據(jù)的。頂級職業(yè)專家與早期職業(yè)者,以及介于兩者之間的每個人都在努力解決這些焦慮的感覺。

“多年來,我們一直聽說自動化和人工智能將大幅減少那些我們都不愿意做的枯燥乏味的工作,但只要我們‘有創(chuàng)造力’、‘有人性’,就不會有問題,”《長期游戲》(The long Game)一書的作者、Fast Company 撰稿人多里·克拉克(Dorie Clark)說,“可是,唉,ChatGPT 剛剛把我們打倒了,所以……顯然我們需要一個新的應對計劃?!?/p>

克拉克說,這個新計劃應該包括建立人際關系網(wǎng)絡,以及建立一個“強大而獨特的聲譽,讓人們愿意選擇與你合作”。建立一個包括各種技能的職業(yè)組合,也比以往任何時候都更重要。

然而,對許多人來說,不安的不僅僅是要制定新的職業(yè)規(guī)劃。不安的感覺比這更加深刻。我的客戶和同事正在與“對我們作為創(chuàng)造者、專家、作家、程序員、藝術家、醫(yī)生、律師等身份的威脅”作斗爭。

還有一個關于正義的問題。那些不顧歧視或殘疾的恥辱,從貧困中振作起來努力工作的人,也將不得不比其他人更加努力地工作,以實現(xiàn)人生的轉折。那些將自己的生命投入到創(chuàng)造知識產(chǎn)權和思想領導力的人,受到了人工智能支持的剽竊行為的威脅。這意味著,雖然有些焦慮可以通過調整和適應在個人層面上得到解決,但其他焦慮則需要集體和系統(tǒng)的解決方案。這些系統(tǒng)性的解決方案將集中關注人類倫理問題。

讓我們來看看具體到內(nèi)容創(chuàng)作的一些問題,如數(shù)字藝術和文案寫作、專業(yè)知識和思想領導力,以及人類思想領導力在創(chuàng)造解決方案中的地位。

2. 誰將受到影響?

市場營銷和個人品牌專家馬克·謝弗(Mark Schaefer)有一個壞消息要告訴有抱負的內(nèi)容創(chuàng)作者。他預測,人工智能對內(nèi)容創(chuàng)作的影響,就像數(shù)字音樂制作的出現(xiàn)對音樂產(chǎn)業(yè)的影響一樣。據(jù)謝弗的說法,那些失業(yè)的人一般都是優(yōu)秀的商業(yè)化工作室音樂家,而精英音樂家、最受尊敬的詞曲作者、制作人和技術人員則不會受到影響。謝弗的結論是,那些為企業(yè)網(wǎng)站提供“信息內(nèi)容”或通用 SEO 內(nèi)容的公司,可能需要考慮轉變方向。克拉克對此表示同意。人工智能對市場營銷和文案工作的威脅是真實存在的。這可能也適用于數(shù)字藝術、網(wǎng)站建設和許多其他職業(yè)。

這很糟糕,讓人很痛苦。那些美化“顛覆”的人,還沒有感受到“被顛覆”的全面打擊,尤其是在沒有社會或家庭安全網(wǎng)的情況下。當前的混亂造成的傷害非常之大,因為威脅遠遠超出了經(jīng)濟層面。機器人侵占了我們許多人喜歡做的事情,包括繪畫、寫作和創(chuàng)作——總而言之,有趣的事情。如果機器人取代清潔廁所的人,我絲毫不會反對。但現(xiàn)在的情況是,我們確實受到威脅了。

個人可能需要考慮,他們的創(chuàng)造力是否也可以通過“不太容易受到人工智能解決方案影響”的方式來表達。但從社會正義和道德的角度來看,只有人類才能回答的問題是:從這種顛覆中受益的企業(yè)是否有義務支持轉行和技能再培訓,以及什么樣的社會安全網(wǎng)可以幫助防止職業(yè)中斷演變成個人和社會的災難。這是一個社會問題,因為任何一個部門的大量失業(yè),都會對其他部門產(chǎn)生多米諾骨牌效應。

當然,并不是每種類型的創(chuàng)造性工作(如寫作或藝術)都會受到同樣的影響。例如,商業(yè)記者兼領導力教練娜塔莎·德索薩(Natasha D’souza)認為,人類的新聞工作者仍將很重要?!白鳛橐幻浾撸u就是職業(yè)自殺,要想脫穎而出,除了分析上的鞭辟入里和編輯上的出彩外,擁有獨特的觀點是必不可少的?!钡滤魉_認為,在新聞業(yè)或任何依賴于人類視角和生活經(jīng)驗獨特性的領域,人工智能工具永遠無法取代人類的想象力和直覺。

我喜歡強調想象力和直覺,但是專業(yè)知識呢?

3. 誰是專家?

具有諷刺意味的是,雖然生成式人工智能可能降低了“稱自己為專家”的門檻,但它卻提高了成為真正的專家的門檻。ChatGPT 復制/粘貼可以幫助非專家去做到聽起來很厲害,即使他們甚至都不懂這個主題。其結果是,“聽起來很厲害”的非專家之間的競爭會加劇。

與此同時,要證明自己是一個真正的專家,很可能需要非凡的人類專業(yè)知識水平。托馬斯·查莫羅-普雷穆齊克(Tomas Chamorro-Premuzic)是Fast Company 的撰稿人,也是即將出版的新書《I, Human》的作者,他認為,要成為一名真正的人類專家,需要在重要的主題方面鉆研得更多,而不是去關心人工智能所借鑒的“大眾智慧”。人類專家必須能夠在“眾包”知識中發(fā)現(xiàn)錯誤、偏見和虛假引用,從而產(chǎn)生比人工智能更準確、更有用的工作。他們還必須能夠把知識付諸實踐。

對于那些雇傭專家(比如顧問),但對千篇一律的建議不感興趣的人來說,德索薩建議尋求有深度的人類專業(yè)知識。此外,這種專業(yè)知識應該“經(jīng)過精心策劃,并應用于特定的商業(yè)環(huán)境或目標?!?/p>

德索薩還認為,人工智能永遠無法取代真正的思想領袖。

4. 思想領袖還會是人類嗎?

思想領袖(Thought leaders,一個不幸被過度使用和誤用的術語)通過添加獨特的視角、創(chuàng)造新的理解和影響他人的想法,來建立起專業(yè)知識。他們的專業(yè)知識不僅深厚、基于研究和經(jīng)驗,而且還浸透著激情和信念。

丹尼斯·布羅索(Denise Brosseau)是《準備好成為思想領袖了嗎?》(Ready to Be a Thought Leader?)一書的作者,他認為,ChatGPT 和類似的高級人工智能,可能“在很長一段時間內(nèi),對于有志于成為思想領袖的個人和組織來說,是最好的工具之一,也是最糟糕的工具之一?!彼梢蕴峁┡c任何主題相關的主流觀點的集合。如果你僅把這個集合作為出發(fā)點,那么 AI 就是一個有用的工具。但“如果你只是重寫一兩個句子,加上一個吸引人的標題和標簽,并把自己的名字貼上去,說這是原創(chuàng)內(nèi)容,那么我們的情況就會變得更糟了?!敝圃煸胍艉退枷腩I袖是不同的。

但是,在人工智能導致的問題中,思想領袖真的“安全”嗎?對此,我有個人和社會層面的擔憂。

5. 抄襲問題

抄襲和剽竊是人工智能的一個大問題。那些花了幾十年時間發(fā)展自己的專業(yè)知識、工藝和知識產(chǎn)權的人,可能特別容易被一個不知名的人工智能“專家”竊取一生的工作成果。

是的,抄襲,包括技術輔助的抄襲,已經(jīng)存在很長時間了。但人工智能讓抄襲的規(guī)模變得前所未有?,F(xiàn)在,一個人一生的工作成果不僅可能被另一個人剽竊,還可能被機器人商品化。一想到如此多的人類熱情和努力被剝奪,卻沒有得到補償或承認,就令人恐懼和憤怒。但解決人工智能使用的倫理問題,是由(人類)是非觀推動的人類領導力發(fā)揮至關重要作用的領域之一。

6. 人類的領導力是被需要的

如果沒有人類的領導,生成式人工智能的擴散很可能導致經(jīng)濟和人道主義的末日場景。在道德決策方面的領導力、對人類后果的考慮以及防止錯誤信息,是最需要人類和以人為本的思考的一些領域。

保護人類生命和社會正義

大公司似乎認為以“人工智能驅動生產(chǎn)力”的名義裁員是可以接受的,人工智能公司的負責人認為,失業(yè)的風險“不會大于積極的后果”。然而,誰能從中受益呢?在這些計算和比較中,是否考慮到了“失業(yè)與自殺風險增加 2 倍至 3 倍呈相關關系”?人工智能公司的利潤是否蓋過了人類生命損傷的風險?

人工智能使用的許多倫理問題都需要人類來解決。例如,是否考慮過人工智能可能會將個人和家庭從中產(chǎn)推向貧困,從而進一步加劇本已嚴重的經(jīng)濟不平等?那么,與失去生計和職業(yè)身份有關的精神健康危機的風險,是否被考慮到了呢?眼下的這一危機很容易地會超過疫情期間的精神健康危機。

人工智能可以幫助分析失業(yè)和經(jīng)濟變化的多種情況,以及研究普遍收入和再培訓的可能性,以減輕對人類的傷害。然而,只有道德驅動的人類才能做出符合人類福祉的決策。

防止虛假信息,找到事實和真理

生成式人工智能的一個很少被討論的缺點是,它有可能使虛假信息成倍增加,并以犧牲人類福祉為代價,給那些為商業(yè)或政治議程服務的觀點提供特權??萍夹袠I(yè)領袖顧問、《獨角獸之前的大象》(Elephants Before Unicorns)一書的作者卡羅琳·斯托克斯(Caroline Stokes)指出了潛在的危險,“人工智能會增加錯誤的“信息”,而人們又沒有正確地研究、評估和核查事實。那么,錯誤的信息被說得越多,它就越能成為“真理”。

理解真理的本質,以及將“流行的、經(jīng)常被重復的東西”與真理區(qū)分開,是人類面臨的困境。解決這個問題需要人類的研究和批判性思維,人類可能會傾向于將這些技能外包給 ChatGPT 之類的技術。

但是,即使人們愿意并能夠付出努力,ChatGPT 的不透明性和缺乏參考信息來源,也會加劇建立真相的困難程度。

請?zhí)峁﹨⒖假Y料

還記得“維基百科被視為教育威脅”的時光嗎?現(xiàn)在,維基百科看起來非常“圣潔”,有參考文獻,有很多方法可以進行標記、質疑和糾正錯誤或有偏見的條目,還有對編輯的追蹤。

相反,ChatGPT 這個黑匣子里的信息來源對用戶來說是無法追蹤的。當被要求提供參考資料時,ChatGPT 會輸出不存在的、編造的專家、書籍和研究。(是的,我甚至和它就我專業(yè)領域的編造資料發(fā)生過爭執(zhí)。)ChatGPT 表示,作為人工智能,它不可能編造參考資料。就算我相信它,但這又引出了另一個問題:它是用什么訓練的?

在某些方面,使用適當?shù)馁Y料但不注明出處,可能是一個比編造參考資料更大的問題。生成式人工智能對受版權保護的藝術、文字和其他知識產(chǎn)權的使用,是一個重大的倫理問題和潛在的法律問題。如果 ChatGPT 為完成你的任務而抄襲,那么誰是抄襲者?使用沒有署名能力的人工智能工具是否完全合乎道德?

具有諷刺意味的是,生成式人工智能似乎迫切需要人類的思想領導力、深入的研究和批判性思維。我們既可以選擇破壞性地引導自己的焦慮,也可以選擇建設性地引導自己的焦慮,將其演變成關懷和同情。我們有責任不把屬于人類的、符合道德和事實的決策交給人工智能。

關鍵詞:

版權聲明:
    凡注明來網(wǎng)絡消費網(wǎng)的作品,版權均屬網(wǎng)絡消費網(wǎng)所有,未經(jīng)授權不得轉載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權使用作品的,應在授權范圍內(nèi)使用,并注明"來源:網(wǎng)絡消費網(wǎng)"。違反上述聲明者,本網(wǎng)將追究其相關法律責任。
    除來源署名為網(wǎng)絡消費網(wǎng)稿件外,其他所轉載內(nèi)容之原創(chuàng)性、真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考并自行核實。
熱文

網(wǎng)站首頁 |網(wǎng)站簡介 | 關于我們 | 廣告業(yè)務 | 投稿信箱
 

Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
 

中國網(wǎng)絡消費網(wǎng) 版權所有 未經(jīng)書面授權 不得復制或建立鏡像
 

聯(lián)系郵箱:920 891 263@qq.com

備案號:京ICP備2022016840號-15

營業(yè)執(zhí)照公示信息