幻觉和人工智能:什么是幻觉以及如何预防幻觉

人工智能 (AI) 已成为我们生活中越来越重要的一部分,其应用范围从健康到自动驾驶,从机器翻译到虚拟辅助,例如ChatGPT 等大型语言模型。

然而,与任何先进技术一样,人工智能也会遇到一些问题,包括幻觉现象、传达虚假信息的输出生成现象。

在本文中,我们将探讨人工智能中的幻觉是什么、它们是如何产生的、如何防御它们以及避免它们的可能技术。

AI中的幻觉是什么?

它们是如何产生的以及为什么人工智能会产生幻觉?
如何保护自己免受人工智能幻觉的影响?
如何判断输出是否受到幻觉影响?
如何保护自己免受人工智能幻觉的影响?
结论
你想知道如何跟上数字世界的突然变化吗?点击下面,发现数字词典的方法!

数字传播策略

1.人工智能中的幻觉是什么?

人工智能中的幻觉是指人工智能系统产 使用 Brother 手机列表上的 Brother 手机列表解锁最佳选择!探索精选的 Brother 手机,兼具质量和实惠性。无论您 Brother 手机列表 是需要智能手机用于个人用途还是专业用途,我们的列表都会突出显示可用的顶级型号。保持联系并了解最新信息 — 立即访问 Brother 手机列表以获取最新更新! 生不基于现实或客观事实的输出的情况。换句话说,人工智能生成的信息与现实不符,或者与提供的输入数据不一致。

这种现象可能发生在各种类型的人工智能系统中,包括基于人工神经网络和机器学习算法的系统。

人工智能中的幻觉可以以多种形式表现出来,包括:

在图像识别系统中,识别场景中不存在的物体或生成与真实特征不符的物体;
在法学硕士等虚拟辅助系统中,通过提供完全不正确的信息或生成不从真实数据开始的答案来回答问题;

2. 它们是如何产生的以及为什么人工智能会产生幻觉?

人工智能中的幻觉可能有多种原因。主要原因之一是用于训练人工智能的神经网络过于复杂和深度。这些神经网络可以从训练数据中学习复杂、抽象的模式,但有时会误解数据或提取不切实际的信息。这会导致AI输出中产生幻觉。

产生幻觉的另一个原因可能是缺乏代表性的训练数据。如果人工智能系统没有接受过广泛的现实和代表性数据的训练,它可能无法准确理解上下文并产生与现实不相符的输出。

然而,人工智能学习模型固有的问题或信息处理过程中可能出现的其他复杂情况也可能产生幻觉。

 

3. 如何保护自己免受人工智能幻觉的影响?

为了防范人工智能幻觉,必须采用一种方法来验证和控制所获得的输出,以确保人工智能使用的安全。

首先,人工智能必须使用准确、有代表性和多样化的训练数据,这样它才能学会理解上下文并产生准确的输出(特别是对于那些使用人工智能进行数据分析的人来说)。这有助于降低人工智能产生幻觉的可能性。

其次,对人工智能输出进行严格的验证和验证至关重要。如果需要重复的话,我们会重复:人工智能永远不能放任自流。人工智能系统应该经过彻底的测试和仔细的人工审查,以识别任何幻觉并纠正它们。

在我们的数字词典的具体案例中,在我们的ihealthyou品牌内,我们多次测试了由 LLM(ChatGPT、Bard、Perplexity、Bing 等)等生成人工智能生成的输出,并且在任何情况下生成的输出都可能是认为完全正确。

这些工具的完全自主性,以生成正确、安全和可用的输出,仍然是遥远的事情。
正如我们在ChatGPT 和提示工程高级指南中广泛展示和描述的那样,人为干预在确保人工智能输出的一致性和准确性方面可以发挥至关重要的作用。

男孩站在电脑屏幕前使用稳定扩散,这是一种

著名的图像生成人工智能服务

 

4. 如何判断输出是否受到幻觉影响?
识别输出是否由幻觉产生是很复杂的。事实上,从本质上来说,幻觉代表了人工智能没有注意到的问题,因此很难让它在以后识别出它的存在。因此,操作人员以及适当的控制和审核链的作用变得至关重要。

幻觉的症状可能是上下文的普遍不一致,或者存在与巩固的客观知识背道而驰的信息,但也可能是输出细节突然缺乏精确性。然而,这些线索都可能被不那么细心的人有效地隐藏起来。随着时间的推移,人们可能会发展出一定的个人敏感性,能够从人工智能中发现幻觉的暗示,但简单的“脉搏”肯定是不够的。

 

5. 如何保护自己免受人工智能幻觉的影响?

要了解输出是否受到幻觉污染,最有用的技术可能是将人工智能的响应与其他模型或人类专家的响应进行比较。

例如,从 Chat GPT 生成的输出开始,明智的做法是尝试在其他 LLM内进行检查 – 注意:它们不得基于 GPT API(例如 God Mode 或 AgentGPT) – 例如 Bard 和 Perplexity 来比较结果相同的提示,以及验证收到的信息。

可以通过执行类似于以下内容的提示来验证输出:

您是[涵盖的主题]方 电话号码 sa 面的专家,在世界上一些最重要的大学担任教授,拥有超过 15 年的经验。

阅读以下文本并通过报告验证内容:
– 从技术角度(非语言)角度来看的错误
– 从科学角度来看的错误
– 概念错误
– 幻觉
– 断章取义的句子或演讲

以下是文本: [文本]

还有一些特定的技术可以减少人工智能中的幻觉,包括使用多任务学习方法或联邦学习技术(我们从机器学习的中高级概念中得出这些概念),可以帮助提高人工智能的能力。理解上下文并产生准确的输出。

还要注意做好“预防”。

生成优质、详细的提示可以大大降低产生幻觉的风险。其内在逻辑是,在思想链或思想树等技术的基础上 ,即通过使模型能够对输入(提示)以更示意性和仔细的方式进行推理,从而降低出错的风险。

 

6. 结论

未来的情况肯定会发生变化,但今天人类互动仍然在减轻人工智能幻觉方面发挥着基础性作用。

如今,主要的人工智能开发人员正在不断致力于开发技术,以避免人工智能系统出现幻觉,并意识到其带来的风险。迄今为止确定的可能解决方案可能涉及:

实施控制和调节人工智能输出的机制(尚未完成);

使用更简单、更可解释的神经网络架构(以便更容易追踪错误的根源、纠正错误并改进模型);
引入强调道德责任和产出一致性的培训方法。
仍有工作要做,我们将随时向您通报此事的最新情况。现在,当我们读到机器不再需要人类完全自主时,我们可以继续微笑……:-)

点击下方,了解如何利用数字 日本电讯号码表 词典应对数字化转型的挑战!

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部