为什么人工智能产生幻觉-Guni

日期:2025-06-22 09:49 浏览:

中国经济网络保留的所有权利 中国经济网络新媒体矩阵 在线音频 - 视觉节目许可证(0107190)(北京ICP040090) 在科幻电影中,人工智能通常被描述为一种强大而强大的“脑”,但实际上,人工智能经常表现为“自信的谎言”。例如,要求AI描述“ Guan Gong and Qin Qiong”,它不仅可以“重述”虚构的故事情节,而且还可以“猜测”用户的偏好,并认真地制作无人空闲的档案。这种现象被称为“ AI幻觉”,已成为一个真正的问题,涵盖了许多人工智能公司和用户。 AI为什么要认真谈论?根源的原因是它认为人们对人的不同方式。如今,人类使用的AI模型和最暴露于日常生活的模型本质上是对这一代语言和模型的主要预测。它检查了互联网上数万亿的文本,了解关系的政策在单词之间,然后通过猜测这个词来生成看似合理的单词回答。这种机制使人工智能模仿人类语言风格,但有时缺乏区分真实性的能力。幻觉的出现-AI的消费不能与大型模型培训的过程分开。 AI的知识系统通常来自培训期间的“吞咽”数据源。互联网上有各种各样的信息,包括虚假信息,虚构的故事和偏见的意见。当此信息与AI培训的数据源相关时,将发生数据资源污染。当某个领域中没有足够的专业数据时,AI可以通过模糊的统计策略“填补空白”。例如,将科学小说中的“黑色技术”描述为现实生活中的技术。在越来越多地用于信息制造的AI环境中,基于内容的大量内容和错误信息AI产生的离子进入泳池进行下一代AI的培训。 “桅杆娃娃”生态系统将进一步加剧AI幻觉的出现。在大型模型的培训期间,为了使AI产生满足用户需求的内容,培训师将建立特定的奖励机制 - 对于数学问题和其他逻辑推理问题,通常会通过确认答案是否正确来奖励;如果答案是正确的;对于诸如写作之类的公开措施,有必要判断产生的内容是否符合人类写作习惯。为了训练效率,该判断更多地关注指标,例如语言格式的逻辑和AI的内容,但忽略了真相的验证。此外,培训过程中的缺陷还将导致AI倾向于“请”用户。尽管他们知道答案不符合事实,但他们愿意按照说明来生成与用户匹配的内容,并做一些错误的例子或看似科学的术语来支持其“假设”。这种“角色扮演”的表达使许多普通用户很难识别theai的幻想。媒体学院和上海北北大学进行的一项全国样本调查表明,大约70%的受访者并未清楚地了解大型模型中出现虚假或错误信息的风险。如何嘲笑AI的幻觉?开发人员试图通过技术手段“纠正” AI。例如,技术“检索增强生成”意味着在响应之前,需要从最新数据库中评估AI。要求提供信息,以减少“不沉默的河流”的可能性;某些模型在不确定时必须积极地承认“未知”,而不是强制答案。但是,由于当前的AI不了解像人类这样的语言背后的现实世界,因此这些方法很难E开始解决AI幻觉的问题。为了应对AI的幻觉,不仅在技术法规中必要,而且还需要从公民的AI素养,平台责任和公共交流的大小来发展系统的“疾病幻想”。 AI素养不仅包括基本的AI使用技能,而且更重要的是,它需要提供幻觉的基本功能。阐明技术平台责任的界限也很重要。在设计AI产品时,应嵌入风险警告机制,自动标记警告内容,例如“也许是事实错误存在”,并提供功能,以促进用户执行现实验证和交叉验证。 MAATHE媒体还通过定期发布典型的人工智能事实案例来发展能够认识公众的能力。通过许多各方的共同努力,聪明的天气中的认知雾确实可以是REMoved。 。

0
首页
电话
短信
联系