
從“大腳怪”視頻博客到算法生成的人物形象,超逼真的人工智能內(nèi)容正在重新定義數(shù)字創(chuàng)作者的邊界。這些影響者是完全虛擬的角色,通過生成式人工智能工具模擬人類的外貌、聲音和行為。他們發(fā)布生活方式內(nèi)容、與粉絲互動,甚至獲得品牌代言——而這一切都無需在物理世界中真實(shí)存在。
隨著這些技術(shù)日益普及、生成內(nèi)容愈發(fā)逼真,專家警告稱,我們正邁入一個(gè)虛構(gòu)與現(xiàn)實(shí)之間界限愈加模糊的新時(shí)代。
合成創(chuàng)造力的崛起
佐治亞理工學(xué)院的專家指出,人工智能超寫實(shí)主義——即以驚人精度模仿人類情感、語音和外貌的內(nèi)容——既是一項(xiàng)技術(shù)奇跡,也是一項(xiàng)社會挑戰(zhàn)。
“人工智能并不具備人類意義上的情感,但它懂得如何模仿帶有情感的言語,”交互計(jì)算學(xué)院的馬克·里德爾教授表示。
“一旦我們意識到人工智能在模仿我們,就不難理解它們?yōu)楹文軇?chuàng)造出聽起來真實(shí)可信的內(nèi)容。”
里德爾指出,視頻創(chuàng)作的民主化是一個(gè)重大轉(zhuǎn)變?!叭斯ぶ悄芤曨l生成工具以及繞過傳統(tǒng)內(nèi)容渠道、直接向社交媒體發(fā)布內(nèi)容的能力,已經(jīng)打開了閘門,”他說。
近期的例子包括像“無名香腸”這樣的合成影響者,這個(gè)數(shù)字動畫角色通過短視頻舞蹈和品牌合作,在多個(gè)社交媒體平臺上吸引了超過3000萬粉絲。在Character.AI等平臺上,用戶與數(shù)百萬個(gè)旨在模擬對話和個(gè)性特征的虛擬角色互動。這些人工智能生成的形象正在重塑受眾在Instagram、TikTok等社交媒體平臺上與內(nèi)容、營銷和身份互動的方式。
心理健康與現(xiàn)實(shí)鴻溝
交互計(jì)算學(xué)院的蒙穆·德·喬杜里教授警告稱,超現(xiàn)實(shí)的人工智能內(nèi)容可能扭曲用戶對現(xiàn)實(shí)的認(rèn)知,尤其是在易受影響的人群中。
“這種扭曲可能加劇焦慮,惡化身體形象和自我比較問題,并導(dǎo)致認(rèn)知信任——即我們對他人口中真實(shí)事物的基本信任——受到更廣泛的侵蝕,”她說。
她的研究表明,社交媒體已經(jīng)模糊了真實(shí)自我表達(dá)和表演性身份之間的界限。超現(xiàn)實(shí)的人工智能內(nèi)容——從深度偽造到引發(fā)情感共鳴的合成角色——進(jìn)一步削弱了用戶辨別真實(shí)或可信內(nèi)容的能力。青少年和面臨心理健康挑戰(zhàn)的人群可能尤其容易受到影響。
“經(jīng)歷壓力或社交孤立的人可能更容易相信深度偽造內(nèi)容,”德·喬杜里解釋道?!斑@類內(nèi)容往往會強(qiáng)化現(xiàn)有信念,或填補(bǔ)社交連接中的空白。”
人工智能內(nèi)容挑戰(zhàn)了我們對真實(shí)性、信任和數(shù)字身份的理解。它也引發(fā)了關(guān)于同意、錯(cuò)誤信息以及與合成角色互動的心理影響的疑問。她指出,Z世代用戶通常通過情感共鳴而非事實(shí)準(zhǔn)確性來評判人工智能內(nèi)容,而年長用戶可能完全難以識別合成內(nèi)容的跡象。
平臺、說服與錯(cuò)誤信息
里德爾強(qiáng)調(diào),人工智能敘事工具可通過“敘事傳輸”——一種受眾沉浸于故事中從而降低對其真實(shí)性質(zhì)疑的心理現(xiàn)象——來影響公眾輿論。
“講故事是一種 persuasive 的溝通方式,”他說?!拔覀兊拇竽X對故事的敏感程度,足以繞過批判性思維。”
近期事件凸顯了這一不斷變化的局面。2025年,泰勒·斯威夫特和湯姆·漢克斯等公眾人物的深度偽造內(nèi)容激增,僅前四個(gè)月就發(fā)生超過179起事件——超過了2024年全年。這些深度偽造內(nèi)容從幽默模仿到欺詐和露骨內(nèi)容不等,引發(fā)了關(guān)于身份濫用和錯(cuò)誤信息的倫理與法律擔(dān)憂。
里德爾指出,視頻錯(cuò)誤信息歷來更難制作,但現(xiàn)在更容易生成,且更可能針對小眾受眾量身定制。
社交媒體公司面臨越來越大的采取行動的壓力。德·喬杜里認(rèn)為,標(biāo)注人工智能生成的內(nèi)容是必要的,但還不夠。
“平臺必須投資于以用戶為中心的設(shè)計(jì)、數(shù)字素養(yǎng)干預(yù)措施,以及關(guān)于算法如何推送此類內(nèi)容的透明度,”她說。
在心理健康社區(qū)中,風(fēng)險(xiǎn)尤其高,因?yàn)檎鎸?shí)性和生活經(jīng)驗(yàn)至關(guān)重要。“用戶在遇到合成內(nèi)容卻沒有明確人工來源提示時(shí),常常感到不知所措或被欺騙,”她補(bǔ)充道。
全球化人工智能時(shí)代的治理
吉米和羅莎琳·卡特公共政策學(xué)院的米爾頓·穆勒教授認(rèn)為,在去中心化的數(shù)字生態(tài)系統(tǒng)中,監(jiān)管可能無效甚至適得其反。
“生成式人工智能是全球化和分布式數(shù)字生態(tài)系統(tǒng)的一部分,”穆勒說。“那么,你所說的監(jiān)管機(jī)構(gòu)是哪一個(gè)?它又如何獲得控制輸出所需的影響力?”
盡管歐盟的人工智能法案強(qiáng)制要求標(biāo)注并處以高額罰款,但美國的努力仍然零散。聯(lián)邦通信委員會已將自動電話中使用人工智能生成的聲音定為非法,違規(guī)實(shí)體將面臨罰款,多個(gè)州正在推動對政治深度偽造內(nèi)容進(jìn)行水印處理和刑事處罰。但專家警告稱,第一修正案的保護(hù)使執(zhí)法復(fù)雜化。
穆勒提醒,政府已經(jīng)在將人工智能用作地緣政治工具,這可能破壞全球合作并導(dǎo)致戰(zhàn)略升級。“政府不是在自由交換數(shù)據(jù)和建立共同規(guī)則,而是在主張數(shù)字主權(quán),”他說。
他主張通過去中心化治理、公共辯論和媒體素養(yǎng)來解決人工智能生成的錯(cuò)誤信息,而不是集中監(jiān)管或自動控制,并強(qiáng)調(diào)內(nèi)容審核應(yīng)以開放流程為指導(dǎo),并在事后應(yīng)用現(xiàn)有法律補(bǔ)救措施。
隨著人工智能生成的內(nèi)容變得越來越復(fù)雜和廣泛,研究人員表示,挑戰(zhàn)不僅在于技術(shù)保障,還在于社會如何適應(yīng)。佐治亞理工學(xué)院的專家強(qiáng)調(diào)透明度、跨學(xué)科合作和公眾參與的必要性。他們表示,超現(xiàn)實(shí)媒體的未來將取決于平臺、政策制定者和用戶如何應(yīng)對其風(fēng)險(xiǎn)與可能性。
精選文章:
人工智能對平面設(shè)計(jì)趨勢的影響:創(chuàng)作者需要了解的內(nèi)容