A的确有薄弱之处,最明显的问题就是「幻觉」:它以为它知道,其实它不知道,但是它瞎说。

  • 现在最强的A!也没有完全解决幻觉问题,而且可能永远都无法彻底解决。这里正确的操作不是完全相信也不是就此不信Al,而是你要对AI有更深的理解。

通常我们将大模型产生的虚假信息分为两类:

  • 第一类虚假信息来源于训练数据集的原材料不准确。大模型通过网络内容进行训练,而这些网络内容本身往往包含错误信息。人类在传播信息时会带有偏差,这些错误信息会被纳入训练集,进而影响模型输出。
  • 第二类虚假信息则是由模型推断出来的。在某些情况下,模型并未掌握某些事实,但为了自圆其说,它会进行推断,从而产生幻觉。

大模型幻觉这种现象不能一概而论。对于事实性问题,幻觉应该被摒弃,但如果是涉及想象力的领域,特别是娱乐性内容,幻觉则可以成为一个有用的提升创造力的工具。

行业内过去普遍认为,模型规模越大,尤其是在后训练充分、推理能力增强后,幻觉应该减少。然而至少在本次测试中, R1 的幻觉程度明显高于V3。说明这种关系并非简单的正相关或负相关,而是也受到其他因素的影响。

但总体而言,随着模型规模扩大,训练数据也随之增多,信息冗余度自然提高,更多的事实和知识点能够被更有效地吸收到模型的参数中,从而降低幻觉的发生概率。此外,推理能力增强能够架起信息间的思维链“桥梁”,使模型更容易推导出正确结论,也有助于减少幻觉。

怎么解决

你需要把信息分为三类

  • 第一类是比较旧的、标准的、一般专家都知道的信息。
    • 这类信息AI一般没问题,直接问它就好。
  • 第二类是过去一两年刚刚出来的、很多专家都不知道的公开信息。
    • 比如说鼎闻时事、学术论文、刚刚批准上市的新药等等。这些东西很可能还没有被用于训练AI,它通常是不知道的,直接问就容易出幻觉。
    • 对这种信息你需要让A!联网搜索或者使用「深入调研(Deep Research)」功能,而且你最好顺着它调研的结果看一眼原始资料。
  • 第三类,则是发生在你们本地,AI事先不可能知道的信息。这些你必须亲自告诉它。

现在随着AI自身理解能力提高,用好它最关键的已经不是说话的艺术,不是什么「提示词工程」,而是你能给它提供多少相关信息。