【赛迪网讯】深夜,一则“西安突发爆炸!火光冲天!”的图文新闻在社交平台疯传。当地群众陷入恐慌,官方紧急辟谣后发现,这竟是由AI批量生成的假新闻——背后团伙利用算法分析热词,定向推送虚假信息,高峰时一天可炮制7000篇不实内容。
这并非孤例。从伪造“山体滑坡”视频到杜撰“核电站泄漏”新闻,AI技术正成为虚假信息传播的新引擎。
大模型为何“一本正经胡说八道”?
“AI幻觉”已成为当前大模型最突出的技术瓶颈。世界互联网大会人工智能专委会主任曾毅指出,其根源在于模型本质是“概率驱动的语言建模”——它并非理解事实,而是预测“下一个最可能的词”。据业内人士介绍,这种机制会导致两种典型幻觉——事实性幻觉和逻辑性幻觉。
第一种是事实性幻觉,表现为模型会编造完全不存在的事实或信息。据《瞭望》披露,纽约南区联邦法院在航空诉讼案中发现,ChatGPT生成的虚假判例被直接写入法律文书。这些完全由AI杜撰的判例包含专业司法要素(如案卷号、法官意见),且高度模拟最高法院裁判文风,导致司法程序受到技术性污染。
第二种是逻辑性幻觉,表现为模型在长文本生成或连续对话中出现前后矛盾、逻辑混乱的情况。据哥伦比亚大学研究数据(2025年3月),当前AI搜索工具在新闻事实核查中表现堪忧。测试中60%的引用内容存在错误,且系统难以准确追溯信源——包括混淆报道主体、提供无效链接等关键缺陷。
更严峻的是,幻觉率随模型复杂度攀升。中文通用大模型综合性测评基准SuperCLUE数据显示,DeepSeek-R1的幻觉率高达21.02%,推理模型平均达22.95%。当技术追求“流畅性”压倒“准确性”,输出偏离事实便成必然。
“病毒式”传播链如何形成?
技术缺陷叠加人为恶意,使AI谣言呈几何级扩散。
清华大学副教授陆洪磊分析,AI可“分平台、分时段”生成谣言,成本极低。例如上海女童走失事件中,团伙用AI编造“父亲系继父”谣言,6天发布268篇文章,单篇点击超百万。传统谣言屏蔽依赖关键词库,但AI可替换表述(如“山体滑坡”改为“地质活动异常”)逃避监管。与此同时,经“自卫”技术处理过的版权材料、来源未经查证的虚假新闻被AI爬虫抓取。2024年AI爬虫流量首超人类,OpenAI与Anthropic爬虫占全球流量19%,这些数据混入其中,像“毒药”一样渗入并污染了模型。
三重防线能否困住“幻影”?
从技术攻坚方面,思谋科技联合创始人刘枢指出,检索增强生成(Retrieval-augmented Generation,RAG)技术是当前重要的发展方向之一。其融合了检索与生成模型优势,将大模型实时对接权威知识库,可显著提升生成内容的准确性。阶跃星辰则推出“深入核查”功能,调用2000+信源交叉验证,以保证模型输出结果的可信性,使得输出结果更为准确可靠。360创始人周鸿祎提出“以模制模”,建议构建“安全大模型”监督知识调用,通过多模型交叉验证,识别和纠正AI幻觉。
从制度监管方面,中央网信办2025年4月部署开展“清朗·整治AI技术滥用”专项行动,聚焦利用AI制作发布谣言、不实信息等乱象开展重点整治,严打AI造谣。世界经济论坛《2025年全球风险报告》已将“错误和虚假信息”列为全球五大风险之一,其中AI生成的幻觉内容被视作关键诱因之一。云天励飞品牌运营中心总经理胡思幸呼吁推行“数字水印+风险提示”双标识,建立AI内容溯源警示机制。
从用户防御方面,阶跃AI产品负责人陈男群认为,应该把“二次核查”的权利交给用户。AI在输出内容的同时,应提供引用来源、原始网页、发布时间等详细信息,使得用户可以自行对内容真实性进行核实。深度学习之父、2024年物理学诺奖得主杰弗里·辛顿提出观点:“人类理解语言的方式与大模型相似,我们同样会产生幻觉”。这提示用户需对AI输出保持批判思维。培养多渠道验证习惯,优先选择权威信源。
结语
AI幻觉已从技术缺陷演化为系统性信任危机。然而,技术创新非一蹴而就。正如行业观察者所言,蒸汽机从诞生到广泛应用历经70年,而AI竞赛才刚刚开始。唯有通过多渠道核查、权威信源比对,方能激活人机协作的“纠错免疫”。让每一条数据有据可查,让每一次生成有源可溯。