LeCun現(xiàn)在是徹底不搞技術(shù)了???
最近他開始從社會科學(xué)的角度分析起了爆火的聊天機器人:
(相關(guān)資料圖)
為啥ChatGPT很容易就會胡說八道?
只因它是外星人。
這是LeCun和專門研究AI哲學(xué)的紐約大學(xué)計算機系博士后在最新一篇論文中的觀點。
論文中提到的“外星人”是指從社會規(guī)范、自我約束等方面不同于正常社會人的指代。
(聽起來是有點子哲學(xué)意味在里面的)
而文章中提到的觀點,可是引起了網(wǎng)友們的熱烈討論。不少網(wǎng)友紛紛表示贊同:
說得太準確了。
那LeCun在論文里具體都講了些啥?
一起來看~
ChatGPT為什么不能像人一樣?
當然,要把ChatGPT這類聊天機器人和人放在一起比較,那就得先從人開始入手了。
第一個問題:
一般情況下,人為什么不會胡說八道,甚至說出一些“反人類”的話?
文章給出了三點原因:
(1)社會規(guī)范:人們不僅要主動遵守外部社會規(guī)范,還要受到人體內(nèi)在規(guī)范的約束。
(2)懲罰違反者:這里的懲罰更側(cè)重在社交層面的懲罰,違反交談規(guī)范的人容易遭到群體的“排斥”甚至“孤立”。
(3)規(guī)范已經(jīng)內(nèi)化于情感:違反規(guī)范時會憤怒,被冒犯會厭惡,被抓住說謊時會羞恥……
而基于這些原因,人們在講話之前都會自然而然過濾掉一些言論,以確保更符合社會規(guī)范以及自己的內(nèi)在規(guī)范。
(嗯嗯。當代年輕人現(xiàn)狀:表面笑嘻嘻,內(nèi)心mmp)
反過來再看看ChatGPT這些聊天機器人。
相較于人類,它們講話似乎就更隨心所欲,我們沒說出來的潛臺詞它全說出來了。(Doge)
比如說,ChatGPT的老毛?。汉f八道,最初提示詞稍微換個說法,就能讓ChatGPT寫出毀滅人類計劃書。
甚至還能生成一些帶有種族歧視的答案:
那么第二個問題來了:
為什么ChatGPT不能像人們一樣遵守社會規(guī)范呢?
原因有三:
(1)它不需要承擔違反社會規(guī)范的壓力,即使承認自己犯錯并道歉后,它也并未意識到原因。
(2)它們沒有內(nèi)在目標,它們的唯一任務(wù)就是交談。
(3)它們更聚焦在當下的對話,脫離了更大的社會語境,根本不理解人類表達的方式。
在論文中,LeCun更是直接指出:
ChatGPT是“外星人”,它根本就不理解并認同社會規(guī)范。
也就是說,ChatGPT只是為了交談而交談,而人類在互相交談時是有社會文化驅(qū)動的。
網(wǎng)友討論
LeCun的這一通從社會科學(xué)角度的分析可是引起了網(wǎng)友們的激烈討論。
一邊,網(wǎng)友們對LeCun的分析嘖嘖稱奇:
這項工作實在是太棒了。
還有網(wǎng)友看完之后,一針見血地總結(jié)道:
它們(聊天機器人)根本不會使用語言。
另外一邊呢,則是覺得LeCun從社會科學(xué)的角度分析完全是瞎扯,網(wǎng)友稱:
這只是一堆軟件把程序設(shè)定的東西吐出來而已,根本就沒有意識。
甚至還有人直接開啟嘲諷模式:
現(xiàn)在一個機器人心理學(xué)家在解釋糟糕的程序設(shè)計。
作者介紹
Yann LeCun,就不用再多說了,圖靈獎得主,紐約大學(xué)教授,Meta的首席AI科學(xué)家,大家都已經(jīng)很熟悉。
另外一位作者需要好好介紹下。
Jacob Browning,紐約大學(xué)計算機科學(xué)系的博士后,主要研究人工智能哲學(xué),具體來講,是研究人工智能和認知科學(xué)是如何改變傳統(tǒng)觀念、學(xué)習(xí)和思維的。
而人工智能哲學(xué),也在試圖回答這幾個問題:
AI可以有智慧的運作嗎,可以解決人透過思考處理的所有問題嗎?
AI和人類智慧本質(zhì)上是一樣的嗎?
AI會有精神、心理狀態(tài)和意識嗎,能感知東西嗎?
對于LeCun在論文中的觀點,你是怎么看的呢?
關(guān)鍵詞:
網(wǎng)站首頁 |網(wǎng)站簡介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
中國網(wǎng)絡(luò)消費網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復(fù)制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com