大模型产生幻觉 全怪人类PUA吗
简而言之,不是 AI 不行,而是我们训练它的方式不对,都怪我们 CPU 它。赛车飞艇pk10群
为啥要把这锅甩给人类?
要回答这个问题,就得从内外两个层面来理解大模型。
一方面,大模型训练的机制就决定了,它们天生就容易产生幻觉,这就是 AI 幻觉的“内忧”
在训练模型的时候,模型要从海量的文本里,学到能够预测出下一个单词的能力。
因此, 只要一句话看起来像是个人话,那么模型就会开始学习它的结构,
但模型有时候只顾着学结构了,这句话的内容到底对不对,它可分辨不了。
而当我们对模型提问的时候,模型也会优先想着,把这句话给回答个完整,但问题是,不是所有的提问,都会有个明确的答案。
举个例子,咱们如果拿出火锅的照片来让大模型判断这是什么动物,那么模型就会开始分析火锅的特征,发现它的毛是金色的,又很长很大只,同时可能又有 92.5%的概率是只狗。
而模型在过去的学习过程中,是能够从不同的图片中,学些到狗子的长相特征的。于是把这些特征给连接起来一判断,就会发现它有很大的概率是一只金毛。
但是如果咱们换个问题,问它火锅是哪年哪月出生的,那大模型就直接懵逼了啊,这个问题,模型肯定没学过,光是看图像,谁也没法知道这只狗的生日是啥时候。
页:
[1]