股票配资交易:配资天眼靠谱-“DeepSeek对王一博道歉”竟是AI编的?大模型幻觉引发热搜假案

股票配资交易:配资天眼靠谱-“DeepSeek对王一博道歉”竟是AI编的?大模型幻觉引发热搜假案

admin 2025-07-04 广州配资网 8 次浏览 0个评论

  一条关于辟谣和道歉的新闻 ,最终却是AI幻觉带来的谣言,这是AI时代的荒诞现实。

  7月3日,一则《演员王一博案 ,判了》的新闻发酵,文章内容提及,人工智能公司DeepSeek因内容审核疏漏 ,就关联不实信息向演员王一博道歉 ,还援引了刑事判决书 。随后,#DeepSeek向王一博道歉#一度冲上热搜。

  目前这一新闻已被删除,但仍然引发大量转载。

  上述文章提到“人工智能公司DeepSeek发布正式道歉 ” ,并提及“声明”一词 。但第一财经查阅了目前DeepSeek所有官方渠道的账号,包括官网、公众号 、知乎、小红书、海外的X等,都未发现有新的动态。

  第一财经也向公司进行了求证 ,但截至发稿,未收到任何回复。

  仅从新闻事实来看,网络流传演员王一博的消息 ,已被经纪公司澄清,法院判定系谣言,而声称DeepSeek为传谣道歉 ,则有诸多的不合理之处 。此次假新闻的信息中没有任何一句明确指出DeepSeek的道歉渠道,声明中所提及的法律判决书,在中国裁判文书网上检索显示无数据 。

  追溯“道歉”新闻源头 ,或许来自于一则社交媒体中的帖子 ,但看图片内容可知,道歉的主体是“AI聊天助手DeepSeek ”。

  值得一提的是,就在这些内容的下方 ,就有显著提示“本回答由AI生成,内容仅供参考,请仔细甄别。”的字眼 ,但最后,这一由AI生成的道歉声明,在传播时逐渐演变成DeepSeek这家公司的道歉声明 ,并被多家媒体传播 。

  AI生成的幻觉问题并非新鲜事,但最后演变成被广泛传播的新闻,值得引起重视和思考。

  幻觉一直是大模型的难题 ,AI会编造看起来合理或可信的信息,但实际上是在“胡说八道”,这种缺陷的根源来自技术局限和训练机制 ,大模型本质是基于统计概率的文本生成器 ,通过海量数据学习词语间的关联规律,而非真正理解事实。

  此外,若训练数据或网络充斥错误信息 ,模型也更有可能输出错误答案 。导致典型的“Rubbish in, Rubbish out ”(垃圾进,垃圾出)效应。

  在第一财经询问DeepSeek关于AI的幻觉时,它给了一个有趣的比喻:大模型像戴着碎镜片的先知 ,镜子(训练数据)里有什么它就反射什么,但镜片破损处(数据缺失)就会自己用彩色玻璃填补(生成幻觉)。

  实际上,这一年随着大模型能力的提高 ,幻觉问题有所缓解 。此前5月底,DeepSeek发布了新版DeepSeek R1,官方提到专门针对“幻觉 ”问题进行了优化 ,更新后的模型在改写润色 、总结摘要、阅读理解等场景中,与旧版相比幻觉率降低了 45%-50% 左右。

  此前DeepSeek的幻觉率并不低,也被不少用户和开发者所讨论。5月15日 ,SuperCLUE曾发布最新一轮中文大模型忠实性幻觉测评结果 ,显示此前的DeepSeek-R1模型幻觉率在21%左右,在测评的国内模型中排名第五 。

  目前看来AI幻觉仍然很难避免。AI往往会捏造人物、事件,或者伪造法律条文 ,需要用户甄别。而对媒体机构来说,当AI的“碎镜片”越来越难被一眼识破,作为信息“把关人”的严谨性与责任感 ,在AI时代就变得更为重要 。这起乌龙事件,是一面映照信息生态脆弱性的镜子 。

  最后,第一财经也询问了DeepSeek ,是否就不实信息向王一博道歉了,它目前给出的回复是否认道歉,但生成的内容里仍有很多幻觉。

  例如称“针对谣言DeepSeek法务团队已启动取证 ” ,并提到可以通过邮箱“official@deepseek.com”进行谣言举报,但第一财经查询官网发现DeepSeek官方并没有这一邮箱,官方邮箱前缀是“service”。

(文章来源:第一财经)

你可能想看:

转载请注明来自盛达app,本文标题:《股票配资交易:配资天眼靠谱-“DeepSeek对王一博道歉”竟是AI编的?大模型幻觉引发热搜假案》

每一天,每一秒,你所做的决定都会改变你的人生!

发表评论

快捷回复:

评论列表 (暂无评论,8人围观)参与讨论

还没有评论,来说两句吧...

Top
网站统计代码