AI“幻象”来袭:如何应对认知风险?
在人工智能技术迭代速度突破摩尔定律的当下,以ChatGPT、DeepSeek为代表的大语言模型(LLM)正以前所未有的深度重塑人类认知世界的方式。然而,这种技术进步伴随显著的认知风险,模型的可靠性存疑,使用中可能会出现“一本正经地胡编乱造”现象。这种“幻象”不仅威胁信息真实性,还可能动摇社会信任体系。认知幻象的技术解构AI大模型的“幻象”(Hallucination)问题,指其在缺乏可靠数据支撑时,生成看似合理实则虚构的内容,比如虚构事实、捏造引用来源,甚至将错误信息以逻辑严密、可信度高的方式呈现。这种现象的隐蔽性极强,因为模型擅长模仿人类语言的连贯性与说服力,用户难以辨别真伪。此类“幻象”的产生,是技术特性与训练机制共同作用的结果
关键词:
格 式:
PDF原版;EPUB自适应版(需下载客户端)
现代商业银行
2025年10期
立即查看 >
图书推荐
相关工具书