這兩天,網絡瘋傳一條關于杭州市政府3月1號取消限行的“新聞稿”。然而,反轉來得很快。
據浙江之聲報道,真相是:16日下午,杭州某小區(qū)業(yè)主群討論ChatGPT,一位業(yè)主開玩笑說嘗試用它寫篇杭州取消限行的新聞稿,隨后在群里直播了使用ChatGPT的寫作過程,還把文章發(fā)在群里。有些業(yè)主不明就里,截圖轉發(fā),導致失實信息被廣泛傳播。
【資料圖】
原來,這是一場由AI寫作引發(fā)的烏龍,讓人哭笑不得。事后,涉事業(yè)主在群里道歉。這件事情也看似了結,卻結結實實給我們提了個醒:人工智能制作的假新聞,看起來比那些網友粗制濫造的謠言更像“新聞”,也勢必會引發(fā)更廣泛的傳播。
其實,我們早就應該明白,無所不能的AI,當然也可以造謠,或者準確地說,也可以被用來造謠,以及無意中形成謠言。
近些年,在社交平臺的席卷下,人人皆可創(chuàng)作,內容的龐雜與劣質、傳播的失真與不確定性,都一再被詬病。現在,不僅用戶可以生產內容,AI也可以,信息池也就更加雜亂了。有些時候,謠言的制造者和傳播者都是無意識的,他們有的是誤以為真,有的是在不確定真假的情況下私自分享,當這兩種情形的量足夠大時,謠言傳播便形成了規(guī)模。
關于杭州取消限行,有杭州朋友一周前就在群里討論,期間大家也陸陸續(xù)續(xù)分享了一些各自看到的信息,其中就包括這份ChatGPT寫的“新聞稿”,一開始還有朋友在群里問“消息保熟嗎”,回答當然也是不確定的。不確定,就是我們不得不面對的社交媒體時代的信息生態(tài)。
在最開始分享ChatGPT創(chuàng)作的那個微信群,至少會有“肇事者”的解釋,以及內容誕生的來龍去脈,但是被分享到更多群聊、朋友圈、短視頻平臺后,“新聞稿”就成了孤零零的消息,大眾不知道它從何而來、什么時候發(fā)出的,只能看見內容本身,然后將信將疑,“且傳且圍觀”。
或許有人會說,最后解釋清楚不就行了,沒必要擔心。但問題是,廓清真相需要一個過程,真相覆蓋謠言也需要一定的時間。而且,這還只是一個關于限行的假新聞,如果是和股市、投資等商業(yè)活動有關呢?市場變幻莫測,必然會受到假新聞的影響,最終給一些投資者、從業(yè)者甚至消費者帶來損失。
科技是一把雙刃劍,AI也不例外。我們當然要積極地擁抱新技術、新事物,讓它們?yōu)槿祟惿鐣奈拿髋c進步提供助力甚至是動力,但同時也要注意規(guī)避潛在的問題和風險,且這個工作有必要盡可能提前?,F在,ChatGPT寫出了以假亂真的“新聞”,就是一次警告。
法律是科技的韁繩,我們要始終確??萍捡側胝_的方向。當發(fā)明家造出第一輛汽車的時候,我們就應該想到《交通法》,面對AI,同樣如此。在可以預見的將來,關于AI的立法,一定會逐漸補位,但我們要對這一事項有充分的預見性,以及行動的迫切性。
值得一提的是,被稱為全球首部人工智能立法的歐盟《人工智能法案》,將于3月底在歐洲議會進行投票。不久前,馬斯克也表示,“AI安全需要立法保護,無論是飛機、汽車還是醫(yī)療,任何先進技術都可能威脅人類安全,而AI對于人類來說,則是一個更大的安全隱患?!睘锳I立法的共識,并不難達成。
技術的問題,需要技術化地解決。比如,能否通過程序上的設置,給AI的假設性創(chuàng)作打上“純屬虛構”、且無法抹掉的標簽?類似的修補和規(guī)范,也有待探索。
當我們在為ChatGPT打開的新世界而激動萬分時,那一絲冷靜,也必不可少。
網站首頁 |網站簡介 | 關于我們 | 廣告業(yè)務 | 投稿信箱
Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
中國網絡消費網 版權所有 未經書面授權 不得復制或建立鏡像
聯系郵箱:920 891 263@qq.com