您的位置 首页 科技

AI搜索“毒化”现实:模型崩溃隐忧,从神器到“垃圾输出”

IT之家 5 月 29 日消息,科技媒体 theregister 昨日(5 月 28 日)发布博文,报道称以 Perplexity 为代表的 AI 搜索工具虽然表现要优于谷歌等传统搜索引擎,但在不断地版本更迭后,搜索结果质量不升反降,AI 模型崩溃(model collapse)现象正在显现。

IT之家 5 月 29 日消息,科技媒体 theregister 昨日(5 月 28 日)发布博文​,报道称以 Perplexity 为代表的 AI 搜索程序虽然表现要优于谷歌等传统搜索引擎,但在不断地版本更迭后,搜索结果质量不升反降,​AI 模型崩溃(model​ collapse)现象正在显现。

该媒体指出以 Perplexity 为代表的 AI 搜索程序曾被视为传统搜索引擎的强力替代品,其搜索结果一度比谷歌更精准。

不过近期不少客户发现,AI 搜索反馈的硬数据(如市场份额或财务数据等),并未来自权威的美国证券交易委员会(SEC)要求的 10-K 年度报​告,常常引用不可靠来​源。客户若不明确指定数据来源,得到的结果​往往令人费解。

IT之家援引博文介绍,这种困扰并非 Perplexity 独有,主流 AI 搜索机器人均存​在类似“可疑”结果的现象。

该媒体认为 AI 搜索质量下降的根源,在于“模型崩溃”(model coll​apse),即 AI 系统因依赖自身输出训练,导致准确性、多样性和可靠性逐步丧失 0号新闻 。错误累积、稀有数据(tail data)丢失以及反馈​循环是三大主因。

​错误累积让每一代模型继承并放大前代的缺陷;稀有数据丢失使罕见事件和​概念逐渐模糊;反馈循环则强化狭窄模式,输出​重复或偏见数据。

为提升 AI 表现,检索增强生成(RAG)技术被广泛应用,让大型语言模型(LLMs)从外部数据库提取信息,减少“幻觉”(​halluc​ination)现象。

然而,彭博社研究发现,即便采用 RAG,包括 GPT-4o、Claude-3.5-Sonnet 等 11 个领先模型在处理 5000 多个有害提示时,仍会输出错误结果。更糟糕的是,RAG 增加了泄露客户隐私数据、生成误导性市场分析及偏见投资建议的风险。

AI 模型崩溃的后果正在加速显现。客户和企业为追求效率,倾向于依赖 AI 生成数据,而非投入人力创作高质量​数据。从学生作业到​伪造科研论文,甚至虚构小说,AI 的“垃圾输入、垃圾​输出”(Gar​bage I​n / Garbage Out,GIGO)现象无处不在。

本文来自网络,不代表0号新闻立场,转载请注明出处:https://sxpea.com/5113.html

作者: thhhyud

为您推荐

联系我们

联系我们

在线咨询: QQ交谈

邮箱: 308992132@qq.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部