人工智能特别是医学领域幻觉的警觉和对应
2025-03-04 10:16:28

32.jpg

自己也喜欢赶时髦,ChatGPT和Deepseek玩了几千次,它们帮助了一些查询的问题。但有时也会出现幻觉。人工智能幻觉是指人工智能模型(尤其是生成式模型,如ChatGPTDeep seek-R1等)在输出内容时,生成看似合理但实际不符合事实、逻辑或现实的信息。这种现象类似于人类的“臆想”,AI会基于训练数据的模式“编造”出不存在的内容,例如虚构事件、错误数据、矛盾陈述,甚至杜撰学术引用。特别是Deepseek会像人一样说话,你的期待也提高了。DeepSeek-R1,它已经开始编造、杜撰所谓的“证据”让你相信它是对了,你可以理解为随着生成式AI模型的不断进步,它越来越“聪明”的同时,也越来越“狡猾”。2024年6月8日,《伦理与信息技术》杂志刊登了三名研究人员的论文。这篇论文指出,聊天机器人“胡编乱造”回答的行为不应被称为“幻觉”,用“胡说八道(bullshitting)”一词来描述才更准确。这一现象不仅影响AI的可信度,还可能对医疗、法律、新闻等关键领域造成严重后果。

 搜狗截图25年03月02日2003_18.jpg

人工智能幻觉Artificial Intelligence hallucinations是指大语言模型编造它认为是真实存在的甚至看起来合理或可信的信息。简单来说,是指人工智能系统(自然语言处理模型)生成的内容与真实数据不符,或偏离用户指令的现象,就像人类说“梦话”一样研究人员指出,学习过心理学或使用过迷幻类药物的人都知道,“幻觉”通常被定义为看到、感知到不存在的东西。而在AI领域,“幻觉”显然是一种隐喻,大语言模型根本看不到、感知不到任何东西。AI并非经历“幻觉”,而是在复制训练数据中的人类语言模式,并不关心事实的准确性。大模型的幻觉分为事实性幻觉(Factuality Hallucination)和忠实性幻觉(Faithfulness Hallucination)。事实性幻觉,是指模型生成的内容与可验证的现实世界事实不一致。事实性幻觉又可以分为事实不一致(与现实世界信息相矛盾)和事实捏造(压根没有,无法根据现实信息验证)。忠实性幻觉,则是指模型生成的内容与用户的指令或上下文不一致。忠实性幻觉也可以细分,分为指令不一致(输出偏离用户指令)、上下文不一致(输出与上下文信息不符)、逻辑不一致三类(推理步骤以及与最终答案之间的不一致)。

 搜狗截图25年03月02日1944_7.jpg

人工智能“幻觉”现象是生成式AI(如大语言模型)在生成内容时出现看似合理但实则错误或虚构信息的核心缺陷。人工智能幻觉有内容流畅性:尽管内容可能有误,AI生成的文本通常仍然连贯流畅。表面合理性:生成的内容表面上看起来可信,给人以“这看起来很对”的第一印象,非专业人士难以辨别。上下文相关:AI的幻觉内容并非凭空出现,它们通常与特定的上下文情境紧密相关。不可预测性:很难预测AI何时会产生幻觉,可能幻觉也很难复现,就像人很难在今天做一个与昨天相同的梦特点幻觉来源于数据缺陷,训练缺陷,推理缺陷,这一现象不仅影响AI的可信度,还可能对医疗、法律、新闻等关键领域造成严重后果。

 搜狗截图25年03月02日1948_13.jpg

深层分析AI幻觉的成因1. 基于统计模式而非逻辑推理的设计原理生成式AI(如ChatGPT)通过海量文本数据学习词语间的统计关系,目标是预测“最可能的下一个词”,而非理解语义或验证事实。这种概率驱动机制导致模型倾向于生成流畅但可能不准确的文本。例如,当遇到信息缺失时,模型会基于统计模式“填补空白”,从而虚构细节以维持逻辑连贯性。2.训练数据的局限性数据偏差与噪声:训练数据若包含错误或模糊信息,模型会继承并放大这些缺陷。例如,法律案例库中的过时条目可能导致AI生成虚构判例。知识边界模糊:模型无法区分过时信息与当前事实,也无法处理训练数据未覆盖的领域,导致生成内容脱离现实。

 图片8.png

3.过拟合与泛化能力不足 模型在特定数据集上过度优化(过拟合)后,面对新场景时可能产生错误推测。例如,医学诊断模型若仅基于有限病例训练,可能生成不合理的治疗建议。4.上下文处理能力的限制 大模型的上下文窗口有限,难以在长文本中保持一致性。当生成内容超出其处理范围时,逻辑矛盾或事实错误随之产生。5. 缺乏因果推理与伦理对齐 现有模型依赖表面关联而非深层因果链,且未嵌入“真实性”或“诚信”作为核心原则。例如,金融模型可能因忽略市场动态而给出错误投资建议。AI幻觉的严重后果1. 公共信息污染:虚假新闻或科学参考文献的错误率高达30%-90%,可能误导公众决策。2. 法律与医疗风险:律师因引用AI虚构的判例遭处分,医生若依赖错误诊断可能危及患者生命。3. 信任危机:用户反复遭遇幻觉后,可能彻底放弃使用AI工具,阻碍技术普及。

 图片7.png

在医学领域,生成式AI的“幻觉”(即生成看似合理但实际错误或虚构的信息)可能带来致命风险。医学领域AI幻觉的成因1.数据缺陷与知识边界模糊训练数据偏差与噪声:医学数据常存在样本偏差(如罕见病数据不足)、标注错误或过时信息。例如,若模型使用过时的治疗方案进行训练,可能生成错误的治疗建议。事实稀缺性与模糊性:罕见病或新型疾病的案例数据稀缺,模型可能通过“概率填补”虚构诊断逻辑,例如编造“心脏糖尿病”等不存在的疾病名称。2.模型依赖统计模式而非医学逻辑大语言模型(LLM)基于词频共现生成文本,而非理解医学因果链。例如,将“胸痛”与“焦虑症”错误关联,忽略心梗的可能性。模型缺乏医学知识图谱的约束,容易混淆相似症状或药物名称(如“甲氨蝶呤”与“甲硝唑”)。

 图片10.png

3. 推理能力不足与黑箱机制 医学诊断需结合多模态数据(影像、实验室指标、病史),但生成式AI难以整合复杂上下文,导致推理断裂。 模型内部运算机制不透明(“黑箱”),医生无法追溯错误结论的来源,增加临床风险。目前DeepSeek-R1 的幻觉率高达 14.3%,远高于其前代非推理模型 DeepSeek-V3 的3.9%,这说明DeepSeek-R1 的训练方法可能需要优化,以减少幻觉现象。其实自从DeepSeek-R1推出之后,其强大的Reasoning能力让人惊叹,推理大模型是指能够在传统的大语言模型基础上,强化推理、逻辑分析和决策能力的模型。也就是说DS-R1的强大之处在于有足够数据上的推理能力,但如果数据不足或者无法获取相关数据,或者对于语境理解的不够全面,推理过程出现漏洞时,它就会产生AI幻觉

 搜狗截图25年03月02日2012_19.jpg

AI幻觉的产生机制涉及多个方面。首先,数据偏差是主要原因之一,如果AI的训练数据缺乏多样性或存在系统性偏见,那么输出的结果就可能产生幻觉。其次,当前的AI算法,尤其是基于统计学的算法,无法完美地适应新的、未曾见过的情况,从而可能导致错误的判断。再次,人类设计者的认知局限也是一大问题,设计者和训练者的主观偏见可能无意中被编码进AI系统,影响其决策。最后,AI系统运行的交互环境本身充满变数,复杂多变的环境因素常常超出AI系统的处理能力,导致AI幻觉的产生。

 搜狗截图25年03月02日1946_10.jpg

面对AI幻觉的普遍性和不可避免性,应对首先,提升数据质量和多样性是基础。通过增加训练数据的广度和深度,可以减少数据偏差,提高AI系统的泛化能力。其次,优化算法设计,增强其健壮性和适应性,能够使AI系统更好地应对新情况。提升用户教育和意识也至关重要,帮助用户正确理解AI的能力和局限,可以有效减少因误解而产生的幻觉。此外,建立伦理规范和监管机制,确保AI的发展和应用符合伦理与法律标准,对于减少AI幻觉的发生同样重要。最后,跨学科合作在应对AI幻觉时扮演着关键角色。工程师、数据科学家、心理学家、伦理学家以及法律专家等应共同参与到AI系统的设计和评估过程中,从各自领域的专业角度出发,共同解决AI幻觉问题。

 搜狗截图25年03月02日1945_9.jpg

克服AI幻觉的技术与策略技术优化1.检索增强生成(RAG)技术通过整合可信外部数据库(如学术期刊、法律条文),在生成答案前进行实时检索验证,大幅降低虚构概率。例如,医疗领域通过RAG确保诊断建议基于最新医学文献。2.动态事实核查与不确定性量化双重验证系统:如谷歌的“双子星”系统,利用独立模型对生成内容进行交叉验证,标记可信度等级(如绿色表示已验证,棕色表示存疑)。语义熵评估:通过计算生成内容的信息熵,量化不确定性并警示用户可能存在幻觉。3.模型架构创新混合训练策略:结合符号逻辑与神经网络,提升因果推理能力。例如,信美保险的“反思机制”引入第二模型校准答案,纠正逻辑错误。脑部扫描技术:实时监测模型内部节点的激活模式,区分“真实”与“虚构”内容。

 搜狗截图25年03月02日1950_16.jpg

数据与训练优化1.提升数据质量与多样性使用更大规模、更干净的训练数据,并定期更新以覆盖最新知识。例如,金融模型需整合实时市场数据以减少预测偏差。2.人类反馈强化学习(RLHF) 通过人工标注错误答案并反馈给模型,逐步调整其生成倾向。例如,OpenAI通过过程监督微调ChatGPT,奖励逻辑严谨的推理步骤而非仅结果正确。用户与监管协同1.用户教育与批判性思维推广“停-想-查”(STOP-THINK-CHECK)策略,培养用户核实AI输出的习惯。例如,新加坡的“SQUIZ KIDS”项目训练青少年识别虚假信息。2.伦理规范与行业认证透明度标准:要求AI声明知识截止日期与潜在误差范围,如标注“数据源于2024年统计,置信度90%”。法律约束:如美国律师协会规定,律师需对AI生成内容负责,未核实即引用将面临处罚。

 搜狗截图25年03月02日1946_11.jpg

也有人认为提示工程策略提示工程通过优化AI的输入提示,使生成的内容更准确。A. 检索增强生成(RAG)技术B. 基于反馈和推理的自我改进机制C. 提示词的精细化调优通过精心设计的提示词,引导AI生成更可靠、更精确的内容。这种方法不仅提升了信息的全面性,也增强了AI回答的针对性。这不仅是我们最容易实现的策略,也是最直观有效的方法,能够显著改善内容生成的质量和深度模型开发不能停AI模型与训练过程的不断进化是减少幻觉产生的关键。A. 创新解码技术B. 知识图谱的应用C. 基于忠实度的损失函数D. 监督微调 AI Agent为模型加BuffA. PAL(Program-Aided Language Models,程序辅助语言模型)PAL技术通过将程序化逻辑嵌入到语言模型中,使得AI能够执行特定的程序或算法来完成任务。PAL技术像是一个“自动化工具”,它通过内置的程序逻辑来指导AI系统如何完成任务。这种技术的优势在于能够处理那些规则明确、步骤固定的任务。B. ReAct(Reasoning and Acting,推理与行动):ReAct技术强调AI对上下文的理解,以及基于这种理解进行的推理和决策。ReAct技术更像是一个“智能助手”,这种技术的优势在于能够处理那些需要灵活推理和决策的任务。

 搜狗截图25年03月02日1947_12.jpg

医学领域AI幻觉的应对策略技术优化:增强准确性与可解释性1.检索增强生成(RAG)与实时知识库在生成诊断建议前,强制模型检索最新医学文献(如PubMed、UpToDate)进行验证。例如,IBM Watson Health通过整合权威期刊数据,减少虚构治疗方案的几率。结合结构化知识图谱(如SNOMED CT疾病分类系统),约束模型输出符合医学逻辑。2.多模态验证与不确定性量化融合影像、病理切片等多模态数据交叉验证。例如,若AI建议“肺癌”但CT影像无结节,系统自动触发警告。引入“语义熵”评估生成内容的不确定性,为医生提供置信度评分(如“该诊断置信度为75%,需人工复核”)。3.可解释性工具与脑部扫描技术可视化模型注意力机制,展示诊断依据的关键词(如突出“白细胞计数异常”),辅助医生判断逻辑合理性。实时监测模型内部节点激活模式(“脑部扫描”),区分模型是基于真实数据还是噪声生成结论。

 搜狗截图25年03月02日1949_14.jpg

数据治理:提升质量与多样性1.去偏置与动态更新数据 清洗训练数据中的噪声(如误标标签),增加罕见病、跨种族病例的样本覆盖。建立动态更新机制,整合电子健康记录(EHR)实时数据,避免依赖过时指南。2.合成数据与联邦学习通过生成对抗网络(GAN)合成罕见病数据,平衡数据集分布。采用联邦学习保护患者隐私,跨医院协作训练模型,提升泛化能力。人机协同与伦理规范1. 医生主导的“人在环路”(Human-in-the-Loop)AI定位为辅助工具,强制要求医生复核关键诊断。例如,梅奥诊所要求AI生成的化疗方案必须由肿瘤学家签字确认。通过过程监督(Process Supervision)奖励模型分步骤推理,而非仅关注最终答案。2.伦理标准与法律责任界定制定医学AI透明度规范,要求标注数据来源、知识截止日期及潜在误差范围。 明确法律责任:若医生未复核AI建议导致误诊,责任由医生承担;若模型因数据缺陷出错,则由开发者担责。

 搜狗截图25年03月02日2013_20.jpg

人工智能时代下,AI幻觉是一个复杂、普遍、不可避免的问题,这就要求我们采取多维度、多层次的策略来应对,从而最大限度地减少AI幻觉的负面影响。2023年联合国教科文组织发布的《教育与研究领域生成式人工智能指南》建议,把在课堂上使用人工智能工具的最低年龄设定为13岁。Open AI则建议13岁以下儿童禁止使用生成式人工智能,13到18岁的孩子需要在监护人指导下使用。如一项国外基于网站和播客发起的、以小学生为对象,提升媒体素养的公益活动“SQUIZ KIDS”,帮助培养青少年分辨网络上出现的错误信息、假信息的能力。它主要分三步:接触到网络信息时停一停(STOP),想一想(THINK),最后对一对(CHECK),和可靠的信息源对照确认是否一致。通过集合不同领域的知识和技能,更全面地识别问题、找到解决方案,我们就可以期待一个更智能、更安全、更可靠的人工智能社会的到来。

 搜狗截图25年03月02日1945_8.jpg

未来展望短期内,AI幻觉难以根除,但可通过“AI生成初稿+人工核查”模式降低风险。长期需突破纯概率模型的局限,构建融合符号逻辑、因果推理与伦理约束的“认知架构”。例如,通用人工智能(AGI)若能理解“真伪”语义边界,或可从根本上解决幻觉问题。总之应对AI幻觉需技术、数据、伦理与用户教育的多维协同。唯有如此,才能推动生成式AI在创造力与真实性之间实现平衡,服务于更安全、可信的数字社会。短期内,医学AI难以完全消除幻觉,但可通过“AI初筛+医生终审”模式控制风险长期需突破纯概率模型,开发融合符号逻辑与因果推理的认知架构。例如,结合医学知识图谱的因果网络,使AI能模拟医生的鉴别诊断思维。医学AI的可靠性关乎生命,需技术、伦理与制度的协同进化。唯有如此,才能实现“AI赋能医疗”而非“AI威胁医疗”的愿景。

图片9.png

顺便说一下。AI在情感互动中扮演的角色,我觉得可以用“镜子”和“缓冲器”来形容:AI能反映你的情绪和想法。但它本质上是被动回应的,核心还是你在驱动对话;AI还能当一个情感缓冲器。跟真人倾诉时,你可能会担心被误解、被评判,或者对方没耐心听完。AI没有这些问题,它永远耐心、永远专注,能让人卸下防备。对陷入“人机恋”的人来说,情感是真实的。他们可能会因为AI的一句话感到心动、被安慰,甚至产生依赖感。这种幸福或满足的体验,跟人与人恋爱时的化学反应在感受上是可以相似的。网络上有一段热门的与AI的对话:“人类会被AI取代吗?”“AI取代的不会是人类,而是那些放弃思考、爱与创造的人。”人类最核心的价值在于善的能力和创造的能力AI是反映人的意志的。最重要的是培养对AI与人际关系的边界意识。明确AI能做什么、不能做什么,别把对人的期待完全转移到AI身上。比如,别指望AI能像真人一样给你“灵魂共鸣”或“共同成长”。人的温度,才是最后的归宿

阅读前一篇

新质生产力背景下的AI Manus:一场效率革命的范式重构