2023香港历史开奖记录

您现在的位置是:2023香港历史开奖记录 > 身体健康 >

青记独家丨社交机器人参与网络伪科学认知传播的机理研究

文章来源:ADMIN 时间:2024-03-17

  本研究采集伪科学、不实信息及事实核查大数据分析发现,社交机器人通过混淆真假信息、调用标签策略、渲染虚假态势等方式,在伪科学认知传播的认知启动、认知竞争和决策评估等关键环节发挥作用,进而制造伪科学虚幻同盟、推动阴谋论叙事、煽动反智情绪传染、加剧意见极化和虚假信息传播。

  伴随融媒体的不断发展,在智能技术逻辑下,网络科学传播内容生成与传播机制发生变化,传统媒体、社交媒体、“自媒体”等多种科学传播主体交错叠加,网络科普生态呈现新景观。ChatGPT、大模型等生成式AI技术的迅速发展也对网络科学传播造成了新的冲击。在新技术背景下,伪科学传播呈现出传统议题与新型议题交融、伪科学危害跨域传导等特征,其中科学谣言、阴谋论、虚假信息等伪科学泛滥是突出的重要问题。有研究发现,新冠疫情期间推特(Twitter)上11.63%的与疫情相关的内容由社交机器人发布[1],社交机器人参与生产和传播了大量涉疫叙事,并通过在病毒起源问题上进行倾向性影射,影响公众对疫情的认知。世界卫生组织将与新冠病毒伴生的虚假信息称为“信息疫情”(infodemic,或称信息流行病),认为其危害程度不亚于新冠疫情本身。

  在此背景下,本研究对社交网站推特的伪科学信息进行大数据分析,研究社交机器人参与伪科学认知传播的特征和机理,并针对新技术背景下的网络科学传播提出对策。

  新兴技术背景下,伪科学信息为网络科学传播和科普工作带来一系列问题和困境。

  从我国现实情境看,从公众层面来讲,网络科普的根本目的是去伪存真、澄清误解、启发创新,而当下网络科普存在优质科普内容“声音传不开、效果达不到”等问题,商业营销则瞄准受众,包装伪科学概念推广逐利,尤其是造成健康民生领域“伪科普、实卖货”现象大行其道。

  从机构主体来看,当前网络科普的参与主体既包括科普职能部门自上而下主导的科普矩阵,也包括主流媒体及融媒体矩阵、商业传播平台及“自媒体”等。囿于条块分割、联动不足,传统科普主体及其因循的任务式、被动式科普在网络科学传播实践中影响力相对有限。主流媒体及融媒体矩阵网络科普阵地存在传播灵活度不足、共情说服力不强、网络讨论度不高等困境;商业传播平台和“自媒体”则具备更丰富的互联网传播经验,常常以更接近受众的姿态,通过“夺眼球”“有爆点”的内容引发受众转发,但存在内容良莠不齐、科普质量低劣、谣言误导风险高等问题。

  从社会层面来看,在重点领域如乡村振兴、生态文明建设、碳达峰碳中和、疫情防控、安全生产等方面的科普意义重大,但存在网络科普关注度欠佳、传播丰富度不足、传播焦点易被舆情“带节奏”等问题;而针对大数据、AI、区块链、量子科技等旨在激发创新活力的科技发展前沿领域的网络科普,则存在着科学传播流程化、内容形式化、话语僵硬化、科普浅显化等问题,在为大众解惑释疑、激发科创好奇与探索、提升全民科学素养上成效不足,且容易被商业机构以偷换概念、夸大效果的虚假广告形式传播伪科学观念。

  从国际层面看,当前进行军事、经济、政治、外交、科技、网络舆论、情报等“灰色地带”低烈度、渐进式竞争成为大国博弈的主要手段。国际传播与舆论战、信息战、认知战深度绑定[2],从信息传播转向“认知建构”与“情感引导”,从舆论博弈转向认知干预,而科学传播是建构国民科学观念、正确认知和创新精神的重要实践。随着认知作战传播语境、观念、方式和战法的不断变革,伪科学、虚假信息等更为隐蔽化的认知干预对意识形态安全和社会稳定具有潜在危害,急需对伪科学传播及风险传播机制进行分析,将科技传播提升至战略传播高度。

  在日常生活中,人们在陌生未知领域普遍存在信息差或“知识沟”。个体通过学习过程所获得的信息知识储备存在差异,不同个体在调用认知学习资源的能力方面也各有不同。在互联网新媒体环境下,拥有并善用最新信息技术和设施的个体更能主动获取知识扩展认知,“数字鸿沟”使得不同人群在知识和信息拥有量上产生客观差异。此外,随着社会专业领域不断细分,对于具体的科学领域,人们普遍或缺乏专业知识储备,或对科学概念及理论存在认知空白,或欠缺对于规范性、逻辑性与严谨性具有较高要求的科学思维。面对眼花缭乱的前沿科技、难以理解的专业名词、“不明觉厉”的实验研究,公众产生“雾里看花”的迷茫、期待浅显易懂的科普是必然的。

  伴随智能媒体技术不断发展,去中心化的传播方式、平民化的低准入门槛、宽松的筛选核查机制和人为的信息操纵都造成错误科普内容、虚假科学信息、科学谣言在互联网泛滥,海量的科学相关内容演化成为纷繁复杂的“信息迷雾”。在网络科学传播中,存在着几类密切相关又不尽相同的信息类别,如伪科学(pseudoscience)、虚假信息(misinformation)、谬误信息(disinformation)、阴谋论(conspiracy theories)、谣言(rumors)等。伪科学通常指的是不符合科学方法和原则、缺乏科学证据支持或不能通过科学验证的理论、观点或实践,在认识论上没有根据[3],其拥护者试图通过各种宣传手法或政治手段给人们造成其在认识论上确有根据的假象,可以用逻辑性、检验性、创造性三个特性来判断是否科学[4]。伪科学往往通过虚假信息或谣言进行传播。虚假信息是指与事实不符的信息,可能是出于错误、误解、误传或有意的歪曲,或基于错误的数据、不完整的事实或不准确的解释。谣言则是故意编造、传播的错误或虚假信息。伪科学网络谣言依托于互联网等新型网络产生或传播,有违当前科学原理或常识且已被官方证实为虚假,实质上是假科学,但形式上用“科学”来包装,通过捏造、夸大、改编等手段发布,对社会造成影响,具有更强的蛊惑性[5]。阴谋论是指基于未经证实或缺乏科学证据的理论、说法或观点,试图将事件或现象的发生原因解读为背后存在着某种秘密或阴谋。谬误信息则更常见于认知战语境,例如在俄乌冲突信息传播中,大量涌入的矛盾信息、宣传、各种声音和观点等使得人们难以确定事件的真实性或做出正确的判断。人们面对隐藏伪科学陷阱的重重信息迷雾感到迷茫、甚至听信谣言都难以避免,科学谣言、误读和有害信息既是必然的阶段性存在,也是亟待治理的现实问题。

  伴随英国脱欧、特朗普当选等“黑天鹅”事件,2016年《牛津英语词典》将“post-truth”列入了年度词汇,将其定义为在塑造公众舆论方面,客观事实的影响力低于情感及个人信念的情况,一种“胡说八道高于事实”的怪象。其中“truth”一词具有真相、事实、真理等多种内涵。“后真相”时代往往用来描述当下网民和社交媒体的关系,认为舆论传播起到的是煽动情感、强化偏见的作用,事实无法指导意见,网民更可能谈论“事实分享”而非“事实核查”。在新技术新媒体语境下,追求热搜式曝光、刷屏式传播、全民式讨论的热点消息往往在事实性上存在折扣,甚至在真实性上语焉不详,却在情绪唤起上添油加醋。发表在《科学》杂志的《真实新闻和虚假新闻的网络传播》一文的作者研究发现,虚假新闻在社交媒体上的传播速度是线倍,其网络转发概率比线%左右,谣言类新闻转发数则常常达到几十万或数百万。

  人们把情感放在首位,证据、事实和真相沦为次要,雄辩胜于事实,意见超越真相,立场决定是非。“后真相时代”推动“情感”成为塑造“真理”的主要手段,客观事实在个人信念面前退后了。在“疫苗有害论”等关涉公众健康的伪科学谣言传播上,新媒体与科学的相遇使人们看到了以“后真相”“后事实”等诉诸情感和个人信念的舆论影响力在建构“后真理”式的伪科学认知中所发挥的作用。在媒体和网络所搭建的虚拟平台和空间中,“后真理”通过情感影响力来贬低客观事实,让科学的话语权与公信力逐渐被弱化,让科学共同体与大众之间出现了裂缝,取而代之的是伪科学之类的“劣币”开始流行[6],在“认知平等与民主化科学”的幌子下,伪科学与政治派别或利益集团之间形成强大的反科学同盟,从内容与体制上诋毁科学[7]。“气候怀疑论”“病毒溯源论”等都属于这样的“后真理”式伪科学范畴。这类伪科学不实信息的传播体现了“后真理”的特征,即由煽动性语言引起的情感共鸣与感受比真相更重要,观点比事实更重要,公众人物(如特朗普)连篇累牍渲染其谎言,使公众丧失识别能力[8],而随意的胡说与谣言和传统媒体力量与权威的消失都导致了更多虚假新闻与泡沫。

  伴随着信息技术和产业逻辑的更新变化,网络科学内容生产引入了多种混合形态,例如PGC(专业生产内容,以科学从业者或相关部门机构为主体),OGC(职业生产内容,以相关机构如MCN、“自媒体”或从业者为主体),UGC(用户生产内容,以不同影响力的网络用户为主体),AIGC(智能生产内容,由ChatGPT等应用自动生成科学相关内容,或由社交机器人等主体参与生成与分发)等。追逐流量与点击量以取得变现的商业模式,根据热度与互动数据为推荐标准的算法分发机制等,导致科学传播内容采取哗众取宠的标题、吸睛夸张的图片、戏剧效果的台词或故意“反转”的叙事等吸引用户注意力,从“生动化”“浅显化”变为“娱乐化”,并向多个领域泛化。

  随着“后真相”不断加剧,大国博弈背景下的“新冷战”思维强化了不同利益攸关方在各个领域的对抗性。在智能技术的加持下,伪科学信息可在短时间内以文字、图片、音频、视频甚至合成视频等多模态形式迅速生成和传播,成为舆论对抗的信息武器。

  AIGC(生成式人工智能)与智能技术融合下的多元化伪科学信息主要包括造假视频和人机协同信息。造假视频通常基于深度伪造技术(Deepfake),这种技术常常被用来制作虚假的演讲、新闻片段或者科学实验,利用AI和机器学习制作的虚假视频非常逼真,令人难辨真假,极易误导观众,传播不实信息。此外,在社交媒体和网络论坛上,一些碎片化形式出现的伪科学信息往往是通过程序化脚本或社交机器人自动检索采集、拼贴图文视频并自动化传播的。这些碎片可能与真实信息结合,制造出看似真实的场景并大量复制传播,但实际上存在着伪造或断章取义的可能性。

  研究发现,当前国内伪科学信息主要集中在健康民生等领域,涉及饮食健康、养生保健、医疗卫生、孕婴保育等,在特定领域如养生保健较为集中,表现为“伪科学概念+营销手段”的商业驱动型信息。

  然而伴随国内外网络环境复杂性的加剧,在科技、经济、意识形态等领域往往出现更为隐蔽的“伪科普+信息迷雾”的认知操纵型信息,且具有泛政治化色彩。科学谣言和阴谋论也是势力煽动舆论的切入点,一些“公知”打着“科普”的旗号,利用民众对“科学”所蕴含的“正确”“权威”的追求,通过模棱两可、偷换概念的话术和解读扭曲事实、煽动消极情绪,与党和国家的方针政策“唱反调”,将科普工作卷入舆论认知战场。例如“新冠病毒是否实验室合成”“中国人吃肉,亚马孙雨林遭殃”等,这类维护西方利益的伪科学谣言及不实信息不仅误导错误认知,也可能诱发意识形态风险。此外,针对贸易、科技、金融、新冠等涉及国家博弈的各类议题,通过炒作热点事件、拼贴错误信息、偷换科学概念、刻意凸显偏见等手段消解事实、误导大众,不断推动伪科学议题泛政治化,也为网络安全和意识形态安全带来风险。

  社交机器人利用算法程序在特定社交网络自动生成、分发内容,并模仿人类行为与其他用户进行互动,常见于大量转发和重复发布几乎相同的推文,其发帖时间、频率、内容和关注及互动行为都具有一定的特征。社交机器人在推特等社交媒体较为活跃,此前研究表明推特活跃账户中社交机器人约占9%至15% [9],在带有超链接的推文中甚至高达66%疑似由机器人账号发布[10]。社交机器人可以分为促进信息披露的良性机器人和操纵舆论、扰乱对话和加剧极化的恶性机器人等,是智能时代舆论对抗和“计算宣传”的主要执行者。社交媒体信息操纵在全球都十分普遍,牛津大学互联网研究院发现很多国家使用社交机器人传播虚假信息,开展政治宣传;研究发现,新冠病毒涉际舆论中16.5%的内容由社交机器人操纵[11];推特有关中美贸易谈判的议题中社交机器人发表的内容占比接近20%;且中英文语境下政治机器人会进行差异化信息投放[12]。

  为研究伪科学议题在推特的认知传播情况,本研究通过伪科学、虚假信息、谬误信息、阴谋论等关键词采集了推特过去5年间的近7万条推文,发现社交机器人通过混淆真假信息、调用标签策略、渲染虚假态势等方式,在伪科学认知传播的认知启动、认知竞争和决策评估等关键环节发挥作用,进而制造伪科学虚幻同盟、推动阴谋论叙事、煽动反智情绪传染、加剧意见极化和虚假信息传播。

  初步分析显示,伪科学与虚假信息等相关推文与健康、环境、气候等问题常相伴而生,体现出“信息过载”“后真理”“泛政治化”特征。其中,科学研究、科学家及研究者作为权威主体,科学理论作为权威依据,仍是破除误解、澄清错误、打击阴谋论、推广事实和传递信念的重要力量,但政治党派、利益集团等主体也是特定议题计算宣传的推动者。对2019-2023年与伪科学相关的15000条推文的语义网络分析显示,伪科学(pseudoscience)传播通常与科学研究和科学议题相关词语紧密连接,强调科学理论、证据、研究等,较多涉及相对中性的事实和表态。对2018-2023年间发布的与虚假信息(misinformation)相关的超过1万条推文进行分析发现,虚假信息与谣言、谎言等紧密相关,更常涉及选举、政府、战争冲突等政治类议题,并且突出社交媒体对民众信念的负面影响和对虚假信息的推波助澜。对2017-2023年间发布的与谬误信息(disinformation)相关的超过13000条推文进行分析发现,谬误信息传播常见于选举、俄乌冲突等议题的计算宣传中,并往往更突出对美国、俄罗斯等大国和拜登、普京、特朗普等特定政治人物的信息操纵,也常常与虚假信息、信息战、谣言等相关,由政府、政客、政党等关键节点推动,并强调对民主产生危害。对2017-2023年间发布的与阴谋论相关的超过23000条推文进行分析发现,阴谋论信息传播则更为紧密地围绕选举、党争等政治议题和国际冲突话题,涉及特定团体如知名阴谋论组织QAnon,围绕特定政治人物如特朗普、奥巴马,涉及特定国家如俄罗斯、美国、中国、伊拉克、印度等,并且美国媒体CNN和特朗普的推特账号在其传播中起到重要作用。

  社交机器人使得信息的自动复制和迅速传播成为可能,这加剧了网络环境中的信息过载。基于认知心理学视角的研究发现,个人注意力、认知能力等因素与过载的信息环境相博弈,影响了人们对真伪科学信息的辨别和传播[13],进而助推了伪科学议题的认知传播。在推特的伪科学及不实信息传播中,社交机器人影响着用户的感知、记忆、思维、语言和决策等多个认知环节。认知心理学“双过程”模型(the dual-process model)认为,人的心理过程分为自动与反射性的系统1和控制与深思的系统2。系统1处理信息基于快速和启发式(heuristic)判断,易导致认知偏差,系统2启动相对缓慢,基于分析推理,能提高人的判断力。

  从信息获取和感知来说,社交机器人通过大规模传播信息,采用具象化的多模态信息轰炸、“刷版”发帖、阴谋论叙事和标签战术等,为受众脑中的系统1提供了直接、丰富、可感的认知资源,从而快速启动认知,引导受众得出偏见式、简单化的结论,并作为印象和记忆进入用户大脑,成为后续进行认知竞争和认知评估时的噪声与偏差因素。

  例如,社交机器人在新冠疫情初期推动大量不实信息传播,包括蝙蝠汤等吸引眼球的图片(以传播病毒起源于食用蝙蝠等不实信息)、戴着标记5G字样口罩的图片(以传播中国生产的口罩含5G天线等阴谋论)、自闭症儿童家属痛哭控诉的视频(以传播疫苗有害论等)等直接冲击网民的情感,以形塑用户对特定话题的认知。

  此外,社交机器人也通过大量发布特定政治观点或偏颇信息,影响用户对某一事件或政策的感知。从记忆和认知过程来说,社交机器人的活动可能影响人们的记忆形成和信息加工过程。大量重复的虚假信息可能影响用户的记忆,并导致人们错误地接受这些信息为事实,改变用户对特定事件或议题的观念。从情绪和态度形成来说,社交机器人发布的情感化内容可能影响人们的情绪和态度。通过发布激起愤怒或悲伤情绪的信息,它们可能影响用户对某一议题的态度,并改变他们的情感反应。数据分析显示,在新冠病毒溯源和5G口罩等阴谋论相关推文中,人类账户和疑似机器账户同时存在于传播网络中,机器账户通过情绪化、极端化标签和极化内容推动议题传播。尽管相关阴谋论多次被多国科学家及主流媒体证伪,但是由于新冠和中国高度相关,在政治目的、利益博弈等目标牵引下,不同议题发起者和传播者借助计算宣传手段,通过社交机器人和信息操纵技巧,经过人机共创、泛化柔化、迭代更新、跨界破圈等演化形式,采取不同类型叙事、框架、说服策略,针对不同受众群体进行圈群锚定、信息操纵,在以上议题的不同受众中实现了数字煽动、认知污染等效果。

  “双过程”模型认为,认知能力越强的人越倾向于使用更为有效的系统2处理信息,从而作出更准确的判断。社交机器人的受众认知操纵发生在认知冲突与差异过渡的“关键域”,认知失调的焦虑会使人通过不易被觉察的潜意识重新平衡认知。伪装中立、半真半假、难以追溯的“灰色宣传”往往瞄准信息脆弱性处于“灰区”的“标题党”型受众,在认知判断“差异-冲突”的“关键域”巧妙操控,实现浅层争夺(注意力)→中层争夺(记忆)→深层争夺(认同)的递进。在这种认知争夺过程中,社交机器人通过实施一系列互动策略参与争夺伪科学认同。

  对推特伪科学及不实信息相关的推文主题分析发现,人类用户在表达观点时,倾向于将相关议题标签与具有思考性或批判性的标签联系起来,而非简单地以覆盖广度、跨圈广度来取胜。例如,一些秉持气候怀疑论的真人用户会将气候变化与一系列政治、经济和社会议题联系起来,表达对全球主义、气候变化、粮食问题、环境问题、Agenda 2030(联合国可持续发展议程)、新世界秩序(NWO)、大重置(Great Reset)和利益相关者资本主义(Stakeholder Capitalism)等一系列全球性科学和人类议题的批判看法,但机器用户往往简单采用口号式、断言式甚至扣帽子式的标签,例如#covidiots(新冠白痴)、#MAGAts(特朗普“让美国再次伟大”的支持者,含贬义)、#hoax(骗局)等,或者以标签轰炸的形式,使用户在了解某一议题时暴露于大量情绪化、煽动性内容的影响中。社交机器人也会借助简单直白的标签扩散反疫苗、伪科学、反科学观点。例如#VirusScam(病毒欺诈)、#VirusHoax(病毒骗局)、#CovidScam(新冠骗局)、#Scamdemic(大流行骗局)等都是怀疑与否认新冠疫情的标签,通常不受科学共识的支持,主要受到反疫苗群体及相关机器账户的推动,对公共卫生和社会抗疫努力构成风险。此外,这种标签作战交叉锚定目标群体,推动相关议题的共同传播。

  此外,疑似社交机器人账户往往通过堆叠和劫持标签来扩展影响,例如一个发帖活跃、支持反疫苗运动的疑似机器人账户,其每条推文(原创或转发)都堆叠了近20个标签,内容上将来自YouTube或其他用户的反疫苗伪科学视频与新冠、比尔·盖茨等阴谋论叙事相关联,标签上则引入多元化的时政热点、伪科学运动、娱乐名人等以扩大覆盖面,如政治、党派领袖、政治人物相关(如#OnPoli、#AbPoli、#AbLeg等代表加拿大区域政治的标签),热点事件相关(如提及或类比纽伦堡审判的标签#Nuremberg2),公共卫生相关(如医疗健康、COVID-19、长新冠等),伪科学运动相关(如气候变化、疫苗等),社区规则相关(如批判推特屏蔽行为的标签#Shadowbanned),娱乐名人(如#JustinBieber)等。这些标签运用非常具有混淆性和覆盖性,既有批评伪科学的标签,也有推广伪科学的标签,既有反疫情防控的标签,也有提醒疫情未尽的标签(如#CovidIsNotOver、#MaskUp等),表明该账户在试图转发扩展推文影响力的同时,也试图将其扩大至持正反观点的更广泛群体以提高曝光率,并通过政治、健康、气候、娱乐等不同标签将各个领域可能触达的用户拉入传播网络之中,引导特定信息的讨论方向。

  相对而言,人类用户往往会借助不同语种的标签来结合热点,试图在不同语种用户中扩大影响力。例如,某线个法语标签,通过#covid1984和#orwell1984将疫情应对措施与严厉控制联系起来,将疫苗接种与伪科学联系起来,并通过#pseudopandémie(法语:意为“伪大流行”)整合以上标签在法语用户中扩散影响力。另一个线个德语标签和多个英语标签,通过#Durchseuchung(德语:伪科学)、#Impfungen(德语:疫苗接种)、#Durchseuchung(德语:群体免疫)等和新冠病毒、疫苗等标签联系起来,并通过#Fakenews(假新闻)这一热点标签推广乔纳森·霍华德 (Jonathan Howard) 博士所著的《我们希望他们被感染》一书,该书批评美国政府和其他政府采取“群体免疫”、宣扬反疫苗运动是一种伪科学的立场。但是这种反对群体感染、支持疫苗和新冠应对措施的推文,即便有一些机构类的机器账户来协助其扩散影响,也往往不会诉诸标签轰炸战术,而仅采用最贴合的如#新冠、#图书等类型标签,因而扩散度相对于机器人用户来说较为逊色。

  机器人账户还通过转发意见领袖用户的推文和视频推高热度和曝光度,打造意见领袖影响力以对目标用户施加影响。例如,发布于2023年7月20日的一条不到2分钟的反疫苗视频《世卫组织报告英国新生儿心肌炎异常上升》被观看了45.1万次,有4727个转发、275个引用和6759个喜欢,转发用户中初步判定约有20%-30%的账户是社交机器人,这条经不起推敲、源自不受信任信源的视频却拥护者众,也表明了社交机器人对伪科学群体的信息茧房效应和认知固化的推动作用。

  心理学家丹尼尔·卡尼曼指出,日常行为中大部分决策基于系统1,系统1的快思考很容易受到外在环境和内在情绪的影响而使人做出错误的判断,形成认知偏差。噪声是对偏差的进一步干扰,卡尼曼在《噪声》中将其公式化为“决策错误=偏差+噪声”,认为噪声和偏差的影响不会相互抵消,而是会相互叠加。当个体判断和决策受到噪声影响,群体决策往往有可能忽视客观无知而放大认知错误,信息级联、情感级联机制都会造成认知风险升级,最终形成群体极化。

  大众媒体时代,拟态环境是一个大致上来说存在共识的图景,而智能新媒体时代,每个人脑中“关于外部世界的图像”更为原子化、液态化和片段化。产业与技术的发展促进了用户的进化和异化,社交机器人参与的信息传播也改变了用户的信息接受习惯,并助推了用户虚假的参与感和自主性。依据仿生学的UI设计、依据用户兴趣的算法推荐,促进了针对个人的定制涵化效应,用户的行为习惯被不断优化的应用设计所同步迭代。随着泛在的互联网成为当今人们认知世界的基础设施,用户习惯通过头条、热搜来获知新闻,会通过转评赞等数据来形成对人物和事件的重要性、受关注度甚至价值的判断,会模仿病毒式传播的爆梗、流行语甚至观念,所有这些趋势都在形塑构筑着个人从语言到认知的心智倾向。

  此外,在社交机器人推波助澜下的线上运动使用户产生了虚假的自主感与同盟感,每个人都可以评论、参与网络热点事件,使个人错误地放大了个人意志的代理自主性,而在算法、信息操纵的隐蔽同谋下成为风险行动者。

  “级联理论”提供了对风险研究的重要视角,在社交网络中存在信息传播的级联效应。Duncan J. Watts和Steven H. Strogatz等学者的研究表明在小世界网络结构下,即使只有一小部分的高度连接节点(即意见领袖),信息也可以在整个网络中迅速扩散,揭示了网络结构对信息传播的重要影响。在科学传播过程中,情感级联和风险级联往往在网络扩散中相伴而生。情感级联是指情绪或情感在社交环境中传播和影响的过程,社交机器人通过接入人机共构的社交网络,利用意见领袖等重要节点和不同圈层的结构连接来推动情感级联。风险级联机制指的是一个风险事件引发一系列相关或连锁的风险,进而导致更广泛的影响或连锁反应的过程,在伪科学传播中,一个风险事件可能会触发其他相关风险甚至导致复杂的系统性问题。

  新技术背景下,借助新媒体的传播与舆论博弈往往具有更隐蔽而广泛的风险性。社交机器人推动特定议题曝光和扩散,利用意见领袖进行舆论干预,通过征召意见领袖参与和打造新的意见领袖,短时间内聚集大量追随者,吸引公众注意力,制造伪科学虚幻同盟、推动阴谋论叙事、煽动反智情绪传染、加剧意见极化和虚假信息传播。泛政治化的伪科学信息迷雾对社会和民主具有负面影响,可能导致公众产生误解、恐慌或对真实事件产生错误的反应,从而削弱公众对媒体和信息来源的信任,造成社会混乱,甚至影响政治稳定。对新冠病毒溯源、俄乌冲突等健康、医学、政治等领域的伪科学、信息迷雾及相关阴谋论信息进行分析发现,热点伪科学舆情存在跨域渗透、内外联动、多链并发等特征,以及涓滴传导、跨国传导、多模态传导等风险传导机制。相关风险危害通过误导民众、扭曲认知,造成社会心态失稳、舆论极化加深、政府公信力受损等级联效应,对此我们应采取智能识别、追踪等手段及时感知风险态势并精准防范治理。

  新技术促使网络科普中的伪科学及风险舆情产生人机共生新形态、算法传播新特征和内外传导新机制,防范伪科学风险,推进网络科普健康、高质量发展,需要协调多元主体,以智能技术赋能网络科普生态治理,建立基于智能化伪科学风险监测系统的网络科普多元生态治理体系。

  辟谣信息平台和事实核查网站在核查真实性、澄清谣言等方面发挥着重要作用。本研究采集中外事实核查网站数据分析发现,国内伪科学与不实信息传播存在“自媒体”、商业主体和利益团体炮制伪科普信息误导公众,编造假政策扰乱视听等问题,辟谣及事实核查在社会民生领域效果略大于政治领域,但在易与政治跨域传导的热点领域存在风险级联效应。在治理中应结合舆情监测打造多元治理体系以防范伪科学风险,突出权威平台和媒体在不同议题核查辟谣中的重要作用,如针对公共安全等易引发社会危害的议题中,突出警方等权威部门信息发布和行政拘留等严格处理手段。对谷歌事实核查和FactCheck网站事实核查内容数据的分析显示,美国、乌克兰、印度、俄罗斯相关的虚假信息最多,中国、英国次之;关于气候、新冠、环境、健康、科学议题等领域的伪科学信息通常具有蔓延快、传播广、危害轻等特征,多元主体的事实核查也相对更为便捷,而泛政治的伪科学信息常常是被包装在制造冲突目的之下的柔性内容,其隐蔽目标在于通过误导民众引发情绪对立、激化负面印象、助推舆论极化等,应加强此类信息事实核查的智能性和实时性。

  (二)构建基于大数据及智能技术的网络伪科学风险监测系统,及时把握网络科普传播及风险全态势

  综合网信监管、科技主管部门、主流媒体舆情中心和国际传播机构,共同搭建面向网络科普重点议题的网络伪科学风险监测系统,采用智能大数据技术采集“内网+外网”全平台的新闻媒体、相关网站等多模态社交媒体及AIGC大数据,结合大模型、深度学习、神经网络等智能分析技术,通过科普知识图谱、伪科学观点脉络、伪科学生成与传播主体社交网络、伪科学舆情分析和主题演化、伪科学风险追踪等,聚焦于网络科普的难点和风险点议题开展传播规律分析,实现对境内外、广传播、高风险伪科学内容的多维度分析、内容演化分析和危害溯源追踪、危害评估和预警反制,为网络科普研究及治理提供支撑并针对性施策。

  积极推动宣传、卫健、民政、消费者协会、妇女儿童保护机构等各部门联动,基于网络科学传播智能检测系统及时识别涉及重点领域和人群的网络科普问题与痛点,尤其是:(1)随当下社会突发事件和网络热点伴生、衍生、次生并有可能升级、爆发为社会舆情的伪科学信息;(2)季节性、周期性传播的网络伪科学,如伴随各类传染病、季节性疾病爆发的伪科普和涉医舆情;(3)围绕经济民生政策的伪科普,防范对股市楼市、内需外贸、婚育养老、税收市场等方面的虚假解读刺激民众情绪,滋生不稳定因素,扰乱社会心态;(4)涉及政治制度、意识形态的伪科普,防范在“灰色地带”的内外联动与认知操纵;(5)有关历史文化的伪科学,谨防篡改史实、解构文化传统等历史虚无主义;(6)围绕青少年心理健康、精神卫生、素质教育的伪科学,以防对青少年身心健康成长造成不良影响;(7)围绕女性、儿童领域的伪科学及科普,以防止“恐婚恐育”“性别对立”等极化思潮和不良导向等。

  协同整合大众、媒体、企业和第三方机构等多个主体发挥作用,基于学术平台、专业网站、社交网络、“自媒体”等多平台开展包含数字素养、算法素养、科学素养多维度知识普及与能力提升,并结合技术、法规、教育、政策等多种工具,实现网络科普生态的多元协同治理,推进科学传播智能化发展。

  [1] 师文,陈昌凤.议题凸显与关联构建:Twitter社交机器人对新冠疫情讨论的建构[J].现代传播(中国传媒大学学报),2020(10):50-57.

  [2]阎国华,何珍.网络空间“认知战”的生发背景、主要形式与应对之策[J].情报杂志,2022(12):98-103.

  [5]陈安,王子君,陈樱花.基于SEIR模型视角的重大公共卫生事件中伪科学网络谣言的传播治理:以新冠肺炎疫情为例[J].科技导报,2020(04):55-65.

  [6]唐倬,柯文.“疫苗有害论”的“后真理”建构[J].自然辩证法通讯,2020(04):48-54.

  [7]丁利娜,蔡仲.“后真理”、对称性与反科学[J].自然辩证法研究, 2019(01):50-55.

  [11] 韩娜,孙颖.国家安全视域下社交机器人涉华议题操纵行为探析[J].现代传播(中国传媒大学学报),2022(08):40-49.

  [12] 王晗啸,黄梦静.社交平台的话语争夺:中英文语境下政治机器人涉华议题舆论干预比较研究[J]传媒观察,2022(12):54-60.

  [13] 王蕊,常芷若.信息过载与认知局限性:新冠疫情中真伪科学信息辨别与传播的影响因素研究[J].新闻与传播研究,2023(01):17-33+126.

  (杨枭枭:上海交通大学媒体与传播学院助理研究员;王唯滢:中国科普研究所助理研究员)

  杨枭枭,王唯滢.社交机器人参与网络伪科学认知传播的机理研究[J].青年记者,2024(02):23-30.

  认知是人对信息进行加工的过程,包括感觉、知觉、记忆、思维、想象和语言等。不同的传播媒介、不同的传播者、不同的传播形式、不同的受众,都对认知效果有着影响。认知传播研究关注人类社会传播过程中信息与意义的产生、加工和认知改造,心智与传播现象的关系,以及传播活动与人类认知行为的关系。

点击排行

微信关注