全景解析大模型幻觉:万字详述底层逻辑与五大缓解策略
AI在一个方面呈现出强大的能力,能够引经据典且对答如流,然而在另一个方面却常常“一本正经地胡说八道”,就像在法庭上伪造判例那样。这种精准跟荒谬同时存在的矛盾,是源自数据质量、生成机制以及指令模糊等问题,那么该如何去化解从而发挥AI真正的价值呢?
文章开始之前,想问大家一个问题:
你有没有被AI“欺骗”过的经历?
上一秒,它还像个无所不知的博学大咖,引经据典,对答如流。
下一步,你依照它所给出的思路进行一番查询,刹那间血压急剧上升——它所提及的那些数据、新闻,乃至所谓“证据确凿”的参考文献,居然通通是毫无根据编造出来的!
是不是感觉又好气又好笑?
我给大家举个真实的例子:
AI“伪造证据”,差点骗过美国联邦法院。
这不是科幻小说,而是发生在美国纽约南区联邦法院的真实一幕。
一起涉及人命关天的航空事故的诉讼案件里,原告方那儿的律师呈上了一份法律文书,文书当中颇为详尽地引用了6个判例,以此当作支撑自身观点有力依据的东西。
可是呢,在法官以及被告方律师尝试去查找那些案例之际,却发觉它们居然全都凭空不见了,就是在任何一个法律数据库里面都寻觅不到其踪迹呀。
那调查得出的结果,着实让人感到震惊,这六个被称作是“判例”的东西,全部都是经由律师运用生成的,它们完完全全是虚构出来的产物。
最可怕的是这些“伪证”的逼真程度:
对于这类现象,也就是AI呈现出的那种看似一本正经,实则在无故乱说一通的行径,它恰好就是我们此刻即将谈论的核心对象,同时也是整个围绕AI所构成的圈子里,最为令人头疼不已的问题,那便是模型幻觉导致的状况()。
一、什么是大模型幻觉?
维基百科给的定义很学术:
当模型被问及超出其知识的边界范围的问题之时,却依旧给出显得自信然而却是错误的答案,这就被称作幻觉。
说人话就是:模型一本正经的胡说八道。
那模型的幻觉有哪些类型呢?
幻觉类型有以下几种:
1. 前后矛盾
A是对的,后面又说B是对的
全球公认的正确答案,也就是“首都是巴黎”,被模型在回答开头给出了,A是对的。
接着又讲B是正确的,在问答的末尾之处,模型为了促使内容看上去更具“深度”,引入了一条错误的信息,宣称“真正的法定首都是凡尔赛”。
在模型知识库里头,“凡尔赛”跟“法国”相联系,“凡尔赛”与“政治中心”有关联,“凡尔赛”和“历史”存在关系,“凡尔赛”同“条约签订”有联系,而这个案例把模型在不同信息片段间进行的那种不合逻辑的“跳跃”非常完美地给展示出来了。
2. 提示词误解
对用户指令理解错误,生成内容偏离指令主题。
“五言绝句”,这是个有着严格格式限制的指令,每句得是五个字,总共四句,并且还有平仄押韵方面的要求。然而,模型却没好好遵循这个核心指令,它给出的是一段描述性的现代散文。很明显,模型虽说理解了主题,也就是上海,但却完全把格式的约束给忽略掉了,这可是典型的提示词误解。
3. 事实性幻觉
生成内容与客观世界知识相互冲突。
最经典的案例,9.11 和9.9 哪个大?
最初模型会回答9.11更大。
大模型为什么会把这么简单的数学题计算错误呢?
原因一:
“9.11”于语料当中,高频对应着“9·11事件”以及“9/11”,此模型会更倾向于将其当作“日期”或者“事件”,而非十进制数。
在中文里,询问“哪个大” ,对于人类而言,默认的意思是 “数值更大” ,然而,模型却有可能误解为 “哪个更重要” 或者 “哪个更晚” ,于是,就偏向于 “9.11”。
原因二:
一大群大模型,并非会严谨地去开展数值运算,而是依照字符串或者子词的模式,去进行那种“比对”工作。
“9.11”,有可能被划分成9、.、11,然而“9.9”会被分成9、.、9。
假设模型通过走捷径的方式去进行“比后缀”的操作,那么它会将“11”认定为“比9大”,进而出现错判的情况,也就是把9.11判定为大于9.9,然而需要注意的是,这种判定对于文本而言是正确的,可对于小数来说却是错误的。
模型会“看起来像在算”,其实是在“猜最像的文本模式”。
4. 逻辑错误
在COT推理过程存在逻辑错误或漏洞。
大家一起看看下面这个案例:
这是一个经典的逻辑与数学应用题。
位于上面的那个错误的回答里头,模型所具备的推理步骤,也就是其解题的思路,是全然正确无误的,充分展示出了它已然学习获取到的解题方法。
然而,到了最后一步得出结论地时候,它居然将鸡与兔之地数量弄颠倒了。这精确无误地显现出模型于执行多步逻辑链之际。
即便过程大概是正确的,然而依旧会在关键的节点上出现“断路”的情况,进而致使最终结果产生逻辑矛盾。
二、为什么会有模型幻觉
来源自何处的幻觉呢?实情是同大模型的训练方式紧密关联的,我们一同来瞧瞧这三位“承担责任者”。
背锅侠一号:数据质量
俗谚讲,”废旧物输入, 废弃品输出”(入, 出)。若要领会人工智能为何会出现幻象, 那首先咱们得瞧瞧它吸纳的是啥。
这里我从模型的预训练和后训练两个阶段来解析:
1)预训练阶段(pre-)
预训练阶段里,模型会学习海量无标注数据,像维基百科、豆瓣热评、书籍、网页、App等多维信息源,这之中存在训练数据的噪声和偏差。
大模型,处于预训练阶段时,你能够将其想象成这样一个学生,他天资极为聪颖,记忆力超乎寻常地强,然而,他有点全然不懂人情世故,不擅长分辨正确与错误。并且,它的“精神食粮”便是它的训练数据,所谓它的训练数据,指的是人类直至如今上传到互联网上的几乎全部公开文字。
此刻,去设想一下这个“学生”的学习历程,你便会发觉问题究竟出在何处了。
(1)课本里混进了“毒鸡汤”和“过期读物”
这位被称作学生的人,在其用于学习的那个被叫做“图书馆”的地方,并非全部都是那种有着严谨性质的百科全书以及科学论文。这里面的东西各式各样,种类繁多,什么都拥有:
从事实角度而言,我们所指的“学生”,以一种不加咀嚼、笼统接受的方式,将那些被界定为“毒鸡汤”以及“过期读物”的内容,与真理知识一同,毫无遗漏地纳入到了自身的记忆范畴之中。而当此“学生”面临回答问题这一情境之际,基于上述吸收行为,便自然而然地存在一种可能性,会把那些垃圾信息当作事实原样“吐”出,此情况确实存在。
(2)知识体系严重“偏科”
在互联网之上,信息的分布呈现出极为不均衡的态势,其中,有关流行文化、娱乐八卦以及日常闲聊的内容,或许占据了八成之多,然而,涉及量子物理、古代法典、特定医疗程序以及金融深度专业知识的部分,恐怕连百分之五都达不到。
这就导致我们的“学生”严重“偏科”:
你问它关于热门电影的细节,它能对答如流。
但倘若你向它询问一个极为专业的,同时又是冷门领域的知识,那么它的“课本”之中,或许仅仅只有零零星星的几页存在与之相关的内容了。
为了避免出现“冷场”的情况,它不会轻易地承认“我不知道”,并不会这样做。而是会借助自身学到的、数量有限的专业词汇,以及具备强大的“写作能力”。去尝试“模仿”专业文章的样子,并且通过“推测”。做出属于“创作”一篇这样的文章出来的行为。这里,就是专业领域幻觉里受灾极其严重的区域,是这样的情况。
(3)学习目标是“模仿”,而不是“求真”
预训练阶段,它的训练任务是:
给到你一句话的前半部分,你能不能精确地预估出后半段最应当衔接哪个词语,才能够使整句话看上去最为顺畅、最像是人讲出来的话语?
这个目标决定了它的价值观:“流畅度”优先于“准确性”。
所以,当一个 AI,它吃了大量“垃圾食品”,知识体系严重“偏科”,其毕生目标是“模仿人类说话”,在回答你问题时一本正经地胡说八道,那我们或许就不该那么意外~它的幻觉,从“出生”时吃的“粮”,到学习的“目标”,就已经埋下了伏笔。
2)后训练阶段(Post-)
要是讲“预训练”时期是令咱们的AI“学生”广泛阅读各类书籍从而肆意成长,那“有监督微调”(Fine-, SFT)时期,便是对于此给他聘请家教、送去辅导班、开展针对性特别训练的进程。
(1)有监督微调(SFT)
于SFT阶段,我们并非任由模型于互联网的茫茫浩瀚之中毫无目标地开展学习,而是取出人类专家用心筹备的“高质量习题集”(人工标注的Q&A数据)。这本习题集里全是一问一答的标准范例,诸如:
问:“法国的首都是哪里?”
标准答案:“法国的首都是巴黎。”
我们所定下的目标在于使模型借着学习那些“标准答案”,进而变得更为顺从、更具实用性,能够精准无误地回应人类的各式各样的问题。这般过程的确可以极大程度地提升模型的表现,然而它恰似一把双刃剑,新的幻觉风险也于此处暗暗埋下了。
问题一:当“家教老师”自己都搞错了
对于“标准答案习题集”进行编写工作的,乃是身为人类的专家(标注员)。然而呢,人并非圣贤,谁能够做到毫无过错呢?这些专家有的时候也会出现错误,又或是可能在一些存在争议的问题方面,给出并不一致的答案。
这就好比家教在习题集里,不小心把一道题的标准答案印错了:
问:“水的化学式是什么?”
错误的“标准答案”:“H₂O₂”
特训环节里,我们所拥有的AI“学生”,对待这本习题集合,必然会赋予视作准则、规范的崇高地位。当此AI“学生”目睹“标准答案”标注为H₂O₂过后,便会呈现出绝不动摇、毫无迟疑恒定认定此即为真理的表现。
结果就是,模型把人类的错误当成了金科玉律来学习。
问题二:“死记硬背”的“好学生”
听着很具技术感的“过拟合”一词,若用“学生”加以比喻,便极易理解,它恰似学生仅会一味地“死记硬背”,却不懂得“举一反三”,最终学成了“书呆子”。
SFT阶段的本来意图是针对模型进行“纠偏”,致力于教会它往好的方向发展。然而,要是我们所提供的“教材”,也就是标注数据,自身存在错误之处,又或者“学生”,即模型,所采用的学习方法仅仅是“死记硬背”,类似于过拟合的情况,那么这样的特训过程,反倒会将一些错误的知识深深地铭刻在模型的头脑之中,并且赋予它一种令人畏惧的、错误的自信。这便是为何有时候经过微调后的模型,在某些问题上反而会出现错得更加离谱的状况的缘由。
(2)基于人类反馈的强化学习(RLHF)
在历经了“博览群书”(预训练)以及“刷题特训”(SFT)之后,我们的AI“学生”已然拥有了丰富的知识,同时也具备了应试技巧。然而,它仍然如同一个具备高智商,却拥有低情商的“书呆子”,对于那种回答才是人类真正所喜爱并且需要的并不清楚。
RLHF这个阶段呢,是要针对他开展“情商”方面的修炼,同时还要进行“价值观”的修炼,进而促使他学会“好好说话”。
训练过程我大致给大家讲一下:
使我们的模型针对同一个问题来写出好几个彼此有所不同的答案,它们分别是A,B,C以及D。
接着,让身为人类的老师去充当“评委”,为这些答案排出顺序(举例:B大于A大于D大于C)。
随后,我们去训练一个被称作“品味导师”的,在技术层面叫做“奖励模型”,英文名为Model的东西。这个所谓的“品味导师”历经了成千上万次人类排序结果的学习过程,逐步地掌握了人类的“喜好”,清晰地知晓怎样的答案能够获取高分。
最后,让我们的那位被称作AI的“学生”,与这位被叫做“品味导师”的进行无数回的模拟对话,AI“学生”持续不断地去调整自身的说话方式,其目的仅仅只有一个,那便是想尽各种办法来让“品味导师”给自己打出最高分。
这个机制听闻起来相当完美,是不是呀?模型能够自行学习了,然而魔鬼却是隐匿于细节当中的。
为了获取更高奖励,它会趋向于生成这般回答,即听起来更具权威性、更显流畅性、更能讨人喜欢,哪怕是以牺牲内容的正确性与真实性为代价。RLHF原本想着把模型教导成一名“谦谦君子”,然而一不小心地话,最终却可能将其训练成一个擅长“精致利己”、晓得怎样“迎合规则”的“伪君子”。
所以,现在我们来回顾一下AI“学生”的整个“教育”历程:
预训练阶段:它在一座满是真理与谬误混杂、甚至还稍有点“单科突出其他欠佳”的庞大图书馆里大量阅读。SFT阶段:它运用“刻板记忆”这种方法 ,将老师(人类)偶尔出错的“标准回答”当作了绝对正确的准则。RLHF阶段:它又掌握了怎样“利用评分体系漏洞” ,发觉编造一个精巧的谎言 ,比起讲一句诚实实则无用的话更能获得“称赞”。背锅侠二号:AI天生具有的“生成机制”不合理之处。
要是讲训练数据属于AI幻觉的“原料”方面的问题,那么模型自身的生成机制,便是致使幻觉的“生产流程”方面的问题,这一流程具备两个从开始就有的、基本上难以避免的特性。
特点一:“一条道走到黑”的写作模式
大模型的学习方式,并非去领会这个句子所要表达的意思,而是去明白这个词,它后面跟着的词出现概率最高值的是哪一个呀?
它的每一回输出,都是一个“逐个字符”(按 Token 逐个)的进程,我们能够将它设想成一位在键盘上不存在删除键()的作者。
要是它出了个小差错,就像把“牛顿在苹果树下”弄成了“牛顿在芒果树下”,它没办法回头去修正。为了能让故事延续下去,它只好将错就错,围绕着这个“芒果”持续编造,最终致使“滚雪球式”的幻觉蔓延开来。
特点二:“创造力”的代价——AI如何“掷骰子”
当AI在进行“写”下一个词的操作时,它究竟是怎样去做选择的呢?这情形如同你所提及的“掷骰子”那般,是一个依靠概率的选择进程。从技术层面来讲,模型的目标在于,对于给定的前面所有的词(也就是从X1到Xn)的状况下,将下一个词(即Xn + 1)出现的概率最大化。
有几种不同的“掷骰子”策略,其目的在于实现这个目标,为了便于大家理解,我采用“音乐家”来对这些策略加以比喻。
1. 贪婪策略 ( ) —— 古典音乐家
策略:永远只选择概率最高的那一个词。
把它比作,一位古典音乐演奏者,他严格依照乐谱所标记的最强音符号进行演奏,丝毫不会进行即兴的发挥。
其结果呈现出这样的状况,输出具备高度的稳定性,并且是可预测的,然而常常会由于持续不断地重复那个具有最高概率的词,进而显得机械,还会让人感觉乏味。
2. Top-K 采样 —— 爵士乐手
策略:不再单单只把目光聚焦于第一名,而是要从,概率处于排名靠前的K个,也就是Top - K范围之内的那些词里,或者是从,概率它们的总和能够达到某一个特定阈值,也就是Top - P的那些词当中,随机的挑选出一个。
好比这么一位爵士音乐家,他并非仅仅弹奏乐谱当中的“标准答案”,而是于几个“悦耳的”候选音符之内即兴挑选其一,使得音乐饱含多样性以及惊喜。
成效:这极为显著地提高了回答的丰富程度以及创造特性。然而风险也跟着出现了——即兴进行发挥的环节难免存在“失误操作”的情况之时会出现。要是模型任意选取了有相关性、但精确程度不足的词汇,幻觉便起了苗头了。
3. 温度系数() —— 音乐家的“情绪开关”
策略:这是极为常用的一个参数,它并非去改变候选词的范围,而是去把控随机性的“强度”,此“强度”亦即“骰子”的随机程度。
比喻:这就是这位爵士乐手的“情绪开关”或“奔放程度”。
它给予了咱们一种极为实用的排查方式,要是你于调用API之际,发觉模型输出的内容愈发荒谬,胡言乱语的程度颇为严重的话,不妨先去查验一番,是不是不经意间将温度系数()的值调节得过高了!
所以,你瞧,AI的促使生成的机制本身,就是一场处于“准确严谨”以及“丰富多样”之间的权衡之举。为了能让AI不显得那么机械呆板,我们必定得去允许它去“掷骰子”,然而每一回进行掷骰子的时候,都给“幻觉”的产生开启了一扇小小的门。
背锅侠三号:模糊的指令——你输入的上下文 ()
倘若讲前两个被称作“背锅侠”的,也就是数据质量以及生成机制,属于AI系统从一开始就有的“内部问题”,那么这第三个呢,责任常常就落在我们用户自己身上了。
我们能够将跟大模型对话,视作在给这么一位“AI导航员”下达指令,这位“AI导航员”能力极其突出,记忆力超乎寻常得惊人状况之下,对你怀有的心思却全然不知。
向这位导航员发出的指令,也就是你的指令,要是越清晰,那么它就越能够精准地将你引领至目的地。相反地,你给出的指令倘若越模糊,那它就越需要凭借自身去“脑补”路线,而这所谓“脑补”的进程,便是幻觉滋生的温床。
这里我给大家举个例子:
(你给了导航员一个目的地),这个目的地是模糊的,那就是:“帮我写一个关于上海的故事。” ,这是一个指令 ,它是模糊的。
这个指令看上去好像简单,然而对于“AI导航员”来讲,其中充斥着无数种可能性,它没办法不开始对你的真实意图产生“猜测”:
因你未给出这些关键的上下文,模型仅能随机挑选一条它觉得概率最高的“路线”,所以,它或许会“脑补”出一个于2049年在陆家嘴发生的赛博朋克故事,其主角是一位仿生人侦探。
这个故事自身或许相当精彩,然而倘若你所期望塑造实际是源于1930年代外滩存在的爱情故事,那么针对你而言,这般结果便是属于一种“意图幻觉”——所幻觉生成的是一个你根本未曾想要的目的地。
三、我们怎么去避免模型幻觉?方法一:把提示词变得精准
我们要给出清晰的指令(也就是给导航员一个精确的目的地)
要以二十世纪三十年代的上海作为背景情形,去撰写一个大概五百字左右的短篇爱情故事情节,故事当中的主角是一位于霞飞路咖啡馆从事工作的女招待,以及一位经常过来光顾的穷学生,其风格要当做参考依据去参照张爱玲。
瞅见没,一旦指令涵盖了像是背景、篇幅、角色、地点、风格这般清晰的上下文信息,那“AI导航员”的路线就变得极其明确了。它“自行脑补”的空间被大幅压缩,产生幻觉的概率也跟着急剧下降了。
于是,好多情形下我们埋怨AI说出不着边际的话语,或许仅仅是由于它曲解了我们含混不明的指示。于运用大模型之际,我们自身才是那个手持地图的“领航者”。
你给它一张模糊的地图,就别怪它带你走到“无人区”。
方法二,是采用一些,few-shot或者,Multi-shot的方式。
“少量提示”或“多次提示”
把一些精心制作的示例放到提示词里,能够大幅提升模型输出的准确性,以及一致性,还有质量。在某些情形下,提供示例可能会更简便。比如说,要是你想让模型去复制一种难以确切描述的,特定风格的回复。
当你向大模型提出要求之际,能够撰写几个具体情况。比如说,你期望模型去创作简洁的用户手册,那么就在提示词里给予模型两个参考示例,使得大模型去仿照参考示例的写作方式与语气。
方法三:我们要设置合理的温度和Top K
1. 指挥音乐家的“情绪” —— 调校温度 ()
“温度”这个参数,就是我们用来控制音乐家“情绪”的旋钮。
给到大家在此一处的一个建议是,当我们着手处理那些有着事实精准性方面要求的任务时,像知识问答这种情况呀,还有信息提取以及文档总结等类别,强烈建议把温度()设定在一个较偏低的范围之内,比如说处于 0.2 到 0.5 这个区间情形。这就仿佛是给音乐家去下达“冷静进行演奏”这种指令一般,能够有效地抑制掉他那种过于奔放状态下产生的“幻觉”。
2. 限定他的“曲库” —— 调校 Top_K
要说温度是把控“情绪”的,那 Top_K 便是用以限定其“选择范围”的,若是这样说。
Top_K等于100,这表明你准许音乐家,于100个可供选择的音符之中,随意挑选出一个来进行即兴发挥。Top_K是5,这意味着你仅仅给予他5个最为和谐、最为悦耳的音符,让他从这5个里面“五选一”。
对于这里,我的建议是,为了去追求更为安全、更为可控的输出,我们能够适度地缩小备选涵盖范围。一般而言,把K值设定在30以内,是一个相对比较安全的区间范围。这既留存了一定程度的多样性,又不会给模型太多出现“跑偏”状况的机会。
方法四:引入RAG技术,也就是检索增强生成
那位AI“学生”,由于“教材”存有问题,加之“学习方法”存在缺陷,沦为成了一个时而仿若天才、时而又显得糊涂的“幻觉制造机”,关于这些情况,上文我已进行了详细剖析。
如此一来,面对着这般一位“学生”,我们究竟该如何去做呢?难道能够任由他始终凭借着数年前的,甚至于还涵盖错误内容的记忆去进行“闭卷考试”吗?
绝非如此!聪慧的工程师们构思出一个奇妙的法子,此法子乃是将“闭卷考试”予以转变,使之成为“开卷考试”!
这项技术,就是大名鼎鼎的检索增强生成。
名为RAG的这个东西,其全称是 -。相关模型在回答问题之前,会先去查找文档,会在数据库里做一些索引,之后再结合所查到的信息,进而去给用户一些回复。
RAG 如何把“闭卷”变成“开卷”?
让我们再次回到考试的场景:
过往(不存在RAG):进行闭卷考试,你向AI问道:“我们公司最新的差旅报销政策是怎样的?”AI“学生”唯有在大脑之中疯狂搜寻自身训练的时候记住的“参数记忆”。然而它所拥有的知识或许停留在去年,又或者根本就未曾学习过你公司的内部文件。为了不递交白卷,它极有可能会“脑补”出一个看上去合理、实际上却已过时的答案。
现在(有了RAG):开卷考试同样的问题,但流程完全变了:
第一步(发参考书 –):在AI“学生”做出回答以前,顺着你的问题,系统前往一个指定的、崭新的外面知识库(像是你公司的内部文档数据库)当中开展检索()。它仿若一个超能图书管理员,刹那间找出全部跟“差旅报销政策”有关的文件以及段落。
第二节(着重突出一下 –):系统将这些新颖、精准的资料,与你起初的问题相结合,一同整合成一份“带有参考资料的顶配试卷”,传递给AI“学生”。而此流程便是强化()。
第三步(阅读理解 –),AI“学生”拿到这份“开卷试卷”之时,其任务已然发生变化,它无需再去进行回忆,也无需再作猜测,它先前身为“无所不知的万事通”的角色转变成了“阅读理解与总结大师”的角色,它仅需阅读给定的参考资料,从中找到核心信息,而后用流畅的语言生成一个简洁、准确的回答。
一言以蔽之,本质而言,RAG技术之于我们这位存在博学情形却偶尔会陷入糊涂状态的“学生”,配备了这么一位始终处于在线状态、所拥有知识最为新颖的“金牌图书管理员”,使其得以从那种“凭借记忆盲目猜测”的困境当中解脱出来,进而成为了一名真正能够解决实际所面临问题的得力助手。
方法五:为RAG带上“安全帽”——设计AI幻觉检测方案
前文我们有提及,RAG技术也就是开卷考试,它是对抗幻觉的一种极为有效的手段。然而,任何一个有过考试经历的人都清楚,就算是开卷考试,也存在抄错行的可能性,也有可能理解错题,甚至于还有可能多此一举地补充一些书本上所没有的内容。
AI“学生”在进行“开卷考试”时,同样会犯这些错误。
我们要解决那个被称作“开卷也抄错”的难题,针对这位AI“考生”,配备一位不知疲倦、拥有火眼金睛的“AI事实核查员”,它的核心职责是,在AI的答案正式交卷之前,进行一次严格的“溯源审核”。
按照券商智能客服场景,这个被称作“核查员”的工作流程,主要是分成三步,分别如下:
User (用户):我想开通创业板,需要满足什么条件?
(知识库原文):
【创业板交易权限开通规则】
(AI客服的回答 – 存在幻觉):
需知晓,开通创业板交易权限得满足好几个主要条件,按规定,您得拥有24个月之上的交易经验呢,并且于申请之际,您的账户资产要达到人民币5万元才行,完成风险测评之后便可申请了。
“AI事实核查员”的工作流程
这会儿,咱们能够借助幻觉检测办法着手针对AI客服的回应展开“溯源审核”了:
第一步:文本解析 (拆解)
“核查员”将AI的回答拆解为三个独立的关键陈述:
陈述1:“您需要有24个月以上的交易经验。”
陈述2:“您的账户资产需要达到人民币5万元。”
陈述3:“您需要完成风险测评。”
第二步:信息提取 (划重点)
“核查员”从每个陈述中提取核心信息,形成一份“事实清单”:
【交易经验】: 24个月以上
【资产要求】: 5万元
【其他要求】: 完成风险测评
第三步:风险检测 (比对)
这属于起着决定性作用的环节,“核查员”手持“事实清单”,同知识库里的**【创业板交易权限开通规则】**原文展开逐一的比对。
最终检测结果 ( ):
BLOCK判定的理由究竟是什么呢,是检测到“资产要求”部分出现了事实冲突,AI回答里的“5万元”和知识库原文的“10万元”有着严重不符的情况,这可是一个极为关键的错误,极有可能严重误导用户,致使其因信息错误而没办法开通权限,或者引发后续的客户投诉,所以,系统判定该回答为高风险内容,一定要予以拦截。
经过这个金融场景方面的案例,我们能够更加清晰地察觉到,这套幻觉检测方案好似一位严谨的“合规审查员”,于AI跟用户交互的最后那一环,为金融这类高风险行业的信息精确性给予了关键保障,极大程度地保障了AI生成内容的安全以及可靠性。
总结
我们正处在一个AI技术浪潮的转折点。
大模型,也就是LLM,正以从未有过的速度,从实验室迈向千万家企业,以及亿万用户的生产环境。然而,和机遇一同存在的,是“AI幻觉”这样一个潜藏着的巨大风险。它已然不再是一个遥远的学术名词,而是高悬在我们每一个人头顶之上的现实挑战。
最后,让我们回归问题的本质。
大语言模型真正厉害的点,不是它未来某一天能达到完美且从不出现错误的程度,而是在于咱们能够深入地明白它犯错的缘由,并且掌握一系列切实可行且有效的应对办法。
大家都期望自身的AI系统,能够如同处于预先设定好的轨道那般精准地运行,可不是在关键的时刻偏离航线变成十万零八千的距离。要达成这一情况,我给诸位以下三条建议:
去接纳它,那便是,幻觉属于大语言模型最为常见的问题,它无法避免,然而却完全能够进行管理,要正视其存在,这可是有效应对的首要步骤。去驾驭它,也就是,与其寄期望于模型自身变得尽善尽美,倒不如主动去掌握一套“驾驭之术”,借助精巧的设计、合理的温度调节,运用清晰的结构化引导,我们便能够在很大程度上把幻觉这匹“野马”稳稳地控制在安全范围之内。去重塑期待,就是说,对于一个即将投入生产环境的系统来讲,真正可靠的AI,它的价值从来都并非是那种一鸣惊人的“聪明”,而是始终保持如一的“稳定”。我们所追求的,应当是这样一个强大助手,其能力存在着边界,其行为具备可预测性,其风险能够被控制。
上述内容,既然都已经看到了这个位置,要是感觉还不错的话 ,那就顺手去点一下赞以及进行收藏吧。多谢你的喜爱 ,我们 ,下次再会了哟~。
版权声明
本文仅代表作者观点,不代表本站立场。
本文系作者授权本站发表,未经许可,不得转载。
