談談兩個AI深度參與的謠言以及“恐怖谷效應”2025年07月 作者:燕志华 来源:網絡舆情和危机公关公众号 责任编辑:xwywck
簡介:談談兩個AI深度參與的謠言以及“恐怖谷效應”
文章提綱如下,謝謝閱讀!
一、“王一博相關謠言被DeepSeek永久撤回”也是謠言
二、“國足來指導蘇超”圖片是個典型謠言
三、如何应对人工 ... 內容:
談談兩個AI深度參與的謠言以及“恐怖谷效應”
文章提綱如下,謝謝閱讀! 一、“王一博相關謠言被DeepSeek永久撤回”也是謠言 二、“國足來指導蘇超”圖片是個典型謠言 三、如何應對人工智能時代的“AI謠言”? 四、警惕“恐怖谷”效應 人类的迷信心理是个非常复杂的文化现象。在远古时代,人们迷信各种占卜语言;到印刷时代,人们迷信白纸黑字;在網絡时代,人们认识到文字会文过饰非,开始迷信“有图有真相”;到了今天的人工智能时代,人们开始迷信AI输出的文字,认为那是集合了大数据和人类知识的精华,没有理由不相信。 在今天,每天都有无数人不间断地和AI对话交流,并将其生产出的文本、视频和图片放到網絡之上,其中很多信息是模棱两可、真假不辨的,介乎自然知识和想象的事实之间。这如同在原来自然的江河湖海之外,每天有无数个管道在排放尾水,也即污染不明显却不能饮用的“IV类水”。久而久之,地表水的总体情况,会彻底改变构成。 我們從當下的兩個AI深度參與的謠言,再來談談“恐怖谷效應”,相信會給大家帶來一定的啓示。 一、熱搜“王一博相關謠言被DeepSeek永久撤回”也是一個謠言 这两天,“王一博相关谣言被DeepSeek永久撤回”的信息上了微博热搜。但是这个热搜信息本身却也是一个谣言,只不过是人工智能深度参与制造的谣言。这使得围绕明星王一博的信息,呈现出了“谣中谣”的现象。这个现象凸显了当下人工智能的时代,網絡治理和谣言治理的复杂性。 事情是這樣的: 近日,北京市首创集团原董事长李爱庆因受贿、滥用职权一案一审宣判,判处死刑缓期执行。由此关于李爱庆和男星关系的问题,再次成为網絡热点话题,其中被提到的男星包括王一博等人。其实早在2022年,王一博经纪公司已经通过诉讼澄清了事实,维护了权益。但是在此次李爱庆宣判了之后,有好事的粉丝就和DeepSeek进行了对话,就当年一些谣传和AI进行了交流,粉丝通过诱导等方式,成功“逼出”了DeepSeek的幻觉,也就是人工智能特有的虚假信息,类似信息如全网删除类似谣言、向王一博道歉、启动赔偿方案等。然后粉丝将此视为DeepSeek公司的道歉,然后就开始在網絡大肆传播,结果众多媒体就信以为真,就纷纷下场报道,出现了如下一些媒体进行了正儿八经的新闻报道: 如果不是有人注意到DeepSeek所在的公司並未進行道歉,這個新聞還會繼續傳播。畢竟,在政經等主流嚴肅新聞之外,那些娛樂話題,常常真真假假,大衆並不會充分論證,只要認爲是真實的,就會進行傳播交流。 二、“國足來指導蘇超”圖片是個典型謠言 其實眼下如火如荼進行中的蘇超,已經受到過一次廣泛傳播的謠言的襲擊,不過大家都以娛樂心理來看待它,沒有深究罷了,但是它的確是個典型的AI時代的謠言。 这就是大家都记忆犹新的“国足要来指导苏超”的網絡传言。在6月初,也就是苏超刚刚火爆出圈、成为全民社交话题的时候,一个AI制作的图片在網絡悄然走红。 结果,这个網絡图片让遨游苏超流量的网民,一时间突然出戏,但是又感觉在情理之中,于是纷纷转发和调侃,也有不少网民信以为真,不少自媒体针对这个配图还专门进行了“辟谣”。 我和兩位大學新傳院的老師進行了較爲正式的探討:這個AI生産的圖片,算是謠言嗎? 從事件看,雖然“國足來指導蘇超”事件本身並未發生,因爲哪怕要一點面子的國足對此想都不會想,但是不影響這個AI圖片迅速出現了廣泛傳播,並且成功激起了群體性的情緒反應,也有辟謠的信息出現。 根據謠言最簡單、最普遍的定義,是指“沒有事實根據的信息或者傳聞”,它甚至沒有要求必須是個事件,一個信息就足夠了。所以我和研究新聞傳播的老師們都確認,這個AI圖片導致的信息傳播,是個典型的謠言。 一些謠言之所以廣爲傳播,在于謠言往往一舉擊中了群體心理的痛點。比如蘇超之所以如此火爆,在深層心理上是因爲國足的習慣性、經常性的失敗,並且爆發了腐敗窩案,這讓人們“怒其不爭”之外,又憤怒又無奈,只能通過諷刺性的段子來宣泄這種負面情緒。在蘇超身上人們終于看到一個健康純粹的足球運動的時候,人們對于國足也不忘來個“回馬槍”,這恰恰是爲網民的心理需求量身定做的。所以說,大型謠言往往是群體共同生産的公共産品,是個群體的甜點。“國足要來指導蘇超”完全符合這樣的特征。 三、如何應對人工智能時代的“AI謠言”? 當下的人工智能時代,AI已經深度滲透進了我們生活的方方面面,但是內容生産從來不僅僅是個內容的問題,更經常涉及信息安全、意識形態和生活秩序的問題,也涉及到人工智能對于人類主體性的地位挑戰問題,所以說,在今天人工智能帶來極大便利的時候,或許風險挑戰才剛剛開始。 大家也會注意到,DeepSeek從今年年初的橫空出世的劃時代産品,到今天很多人對其慢慢産生了困惑,這在于交流的時候,人們發現了DeepSeek兩個問題:一是,感覺DeepSeek特別像個圓熟世故的中年人,對于一些敏感的話題或者避而不談,或者以轉圈來打太極拳;二是經常出現了幻覺現象,也就是答案裏出現了不少虛假的不實信息,根據有關數據,幻覺率達到了15%上下。兩個方面讓人們對于DeepSeek,突然産生了疏離感。這正如人們對于屏幕上濃眉大眼的電影男主角充滿了崇拜,但在線下見面的時候卻發現老是忽悠大家,這對于情感是個打擊。 更何況,今天人們的日常生活和生産,慢慢變成了人機結合、人機協作,這使得很多AI生産的內容變得面目可疑,模棱兩可,這會透支人們的信任心理。 就以上述兩個謠言來說,可以看出新的特點,就是AI深度參與了謠言的生産和傳播。由于人們開始大量運用AI進行內容生産,並且網民對于AI也産生了一定的迷信心理,由此形成了信任機制和傳播機制,會導致一些幻覺信息,很快進入傳播空間,從而爆發爲謠言。 其實謠言的爆發,本質上是個信任心理現象。由于謠言是根據網民群體心理的需求而制作出來的,精准擊中了大衆心理,從而獲得了大衆的信任,再加上人們對于人工智能也出現某種程度的迷信心理,這給人工智能生産謠言、傳言、流言,就打開了便利之門。 AI謠言和傳統謠言,本質上並無差別,但是由于人工智能的幻覺現象,會一本正經地添油加醋,並且會盡力地以深入思考的形式說服用戶信任它,反倒給不實信息蒙上了迷惑性的外表,插上了傳播的翅膀,因此風險更大。 如何應對類似的AI謠言?我覺需要從以下兩個方面入手: 1、大衆破除對于人工智能的迷信心理 我覺得首要一點,就是破除人工智能的迷信心理,要對所有人工智能生産的內容,抱以質疑性的、批判性的眼光和思維來看待。這應該成爲今天一種人工智能時代的“信息素養”。凡是人工智能生産的內容,都值得再次確認、二次論證,而不是無條件地接受。 實際上,對于任何熱傳的新聞和信息都抱著獨立的、批判性的眼光來看待,這本身就是國民整體素質提高的標志之一,也是公民素養之一。質疑,而非無條件地接受,這樣才能啓動思考的力量,這本身就會成爲抵禦謠言襲擊的觀念和思想的壁壘,防止社會出現剛性脆弱。提升無數個體的知識水平和信息素養,本身就能夠建成足夠彈性的心理壁壘,確保社會的安全。 2、機構媒體需要以批判性視角報道網傳信息 我們會發現很多網傳的不實信息引爆爲大型的謠言,中間會出現一個分水嶺、一個關鍵的信息傳播拐點,那就是傳統媒體或者機構媒體一旦正式報道了,那就會出現大規模的轉發。因爲機構媒體享有更大的公信力,一旦報道了,就相當于爲網傳信息提供了背書,網民就此完全放松了警惕。就以“王一博相關謠言被DeepSeek永久撤回”,機構媒體的報道起到了推波助瀾、間接證實的中介作用。 所謂的機構媒體,不再僅僅指傳統的媒體。在今天很多自媒體做大之後,通過辦公場地的固定並雇傭一定數量的員工,也會成爲一個機構媒體。機構媒體往往擁有固定的渠道和粉絲群體,從而産生影響力和公信力。 但是問題在于,媒體沒有天然義務核實和甄別信息的真假。他們的天職只是及時地傳播信息,卻並不必然包括准確性。這出現了人們深爲不滿的一個現象是,傳謠和辟謠,媒體常常收獲了兩波流量。這源于,媒體領域存在廣泛而激烈的同行競爭,如果遺失了對于某個信息的及時報道,這會導致競爭的落伍和工作的問責,更會導致多米諾骨牌一樣的後續負面影響,比如,粉絲一旦不能及時看到信息,會認爲你不專業、不負責,更可能的情況是,會被那些經常第一時間報道的媒體吸引走,而抛棄丟失信息的媒體。因此,媒體對于報道的競爭性策略,常常是“甯報錯,不錯過”,先報了再說。這是由媒體的職業本能決定的,無關道德責任。 較爲負責的媒體,面對一個突發的信息或者熱傳的信息,會盡責地進行辨析,但是這不是內在的職業要求,而是外在的社會責任壓力。我所能想到的平衡策略,就是機構媒體對于突發的網傳信息,最好是以質疑性的、批判性的角度來報道和傳播信息。 這有利于提醒網民的獨立思考,同時也能確保媒體的品格。尤其對于今天網傳信息多發、又增加了人工智能幻覺現象的時候,機構媒體的質疑性、批判性報道,本身具有極大的社會價值,具有啓迪社會思考的意義。 四、警惕“恐怖谷”效應 雖然我在上面提出了兩個建議,但是我的擔心是,它或許只在當下有用,隨著人工智能的進一步發展,這些提醒會全部失效,從而可能導致更大的風險。 我們從“恐怖谷理論”,能夠理解這樣的風險,其實是越來越大的。 “恐怖谷理論”是由日本機器人專家森昌弘在1970年提出的理論,用來描述人類對于機器人情感的變化。森昌弘提出,人形機器人在一開始比較像人的時候,人類是抱以好感的,但是當機器人進一步更加像人的時候,人類會在某個時刻,突然産生一種恐懼感,對于機器人的好感會降到谷底,這就是“恐怖谷”。但是當機器人再進一步,完全像人的時候,由于人類已經經曆過情感的刺激免疫,反倒會接受和自己越來越相像的機器人了。 我們借用機器人的“恐怖谷效應”,再來看人工智能的內容生産,會發現:在當下人工智能剛剛出現的階段,人們對于AI生産的內容雖然比較信任,但是經過媒體的提醒,還是能夠對其抱以警惕和質疑,從而形成獨立性的、批判性的思考的。 也就是说,在当下人们对于AI的内容生产,正处于一个 “恐怖谷”阶段,人们会对AI内容抱以一定的警惕和质疑。 但是隨著人工智能的進一步發展,它生産的內容或許會持續優化,終于在某個階段消除了幻覺現象,或者在很多方面獲得了更大的進步,人類對于AI會不會完全放松或者失去警惕,從而對其完全接受呢? 我看大有可能。很多科學家認爲人類社會正在無限逼近“奇點”,也就是人類科技獲得突破的質變時刻,人工智能的發展也是快速演進,終究會在接下來的某個時刻,讓人類放下警惕之心,人類也跨越“恐怖谷”,從而徹底完全地信任人工智能。 一旦徹底地接受人工智能,那人類的主體性或許更加岌岌可危了,那麽AI謠言或許就不再是謠言了,而是AI營造的某種真實了。我想,那個時候才是最值得警惕的。 作者簡介: 燕志华 博士 高級記者/紫金傳媒智庫研究員/輿情管理顧問 |
热点 . . .
最新 . . .
|
![]() |
![]() |
組織機構 | 商務合作 | 版權與免責 | 聲明 | 關于我們 | 友情鏈接申請 | 廣告 |
本站內容屬原作者所有,其原創文章除本站或作者授權不得轉載、複制、建立鏡像,違者必究。 业务服务电话:010-85899333/6333 邮箱:vip@xwpx.com 京ICP備06063928號 ![]() 京公网安备 11010502041874号 | ||
|
||