DeepSeek 称就 AI 模型违规关联事件道歉?虎嗅多方核查却未发现

互助县树人高级中学

近期,网络上一则新闻引起了广泛关注。据媒体报道,DeepSeek公司因AI模型不当关联王一博与“李爱庆腐败案”一事,已公开致歉。该媒体透露,DeepSeek方面承认,由于内容审查存在疏忽,平台在回应用户咨询时,错误地引用了未经证实的网络传闻,将王一博的案件与首创集团前董事长李爱庆的案件进行了不恰当的关联,从而对其名誉造成了损害。DeepSeek已经永久删除了这些不实信息,并引用了北京市第三中级人民法院(2025)京03刑终174号刑事判决书予以明确。

然而,经过虎嗅的多次核实,我们发现DeepSeek的官方微信公众号、官方网站以及之前的官方Twitter账号等所有官方社交媒体渠道,都未曾发布过任何形式的道歉公告。虎嗅对“DeepSeek 就违规关联王一博与李爱庆腐败案道歉”的相关新闻报道进行了深入搜索,结果却发现,并无任何一篇报道具体说明了 DeepSeek 进行道歉的途径,同时也没有找到任何相关道歉声明的截图。

此事的戏剧性远未结束。该事件的奇特之处在于,整个网络几乎一致认为DeepSeek已经进行了道歉。众多自媒体、网络新媒体以及传统媒体,纷纷在第一时间对这一虚假信息进行了报道。

不仅如此,虎嗅就此事咨询了市面上所有的人工智能大型模型,结果令人惊讶地发现,它们的回答竟然高度统一:一致确认DeepSeek确实就“违规将王一博与‘李爱庆腐败案’关联”一事进行了道歉,并且还引用了那篇不实的新闻报道链接。

王一博遭遇报假警_王一博报假警结果_

来源:豆包

王一博遭遇报假警__王一博报假警结果

来源:DeepSeek

_王一博报假警结果_王一博遭遇报假警

来源:KIMI

该事件原本只是社会新闻或娱乐新闻的范畴,然而,作为一名长期专注于科技新闻的从业者,从我的视角来看,此事所反映的,不仅仅是新闻报道审核不严格的问题,更深层地揭示了当前AI大模型所面临的比“幻觉问题”更为严重的挑战——AI能够通过引用虚假新闻来制造新的虚假新闻。虎嗅指出,人们通常所说的AI大模型所面临的幻觉难题,实际上指的是AI在没有实际依据支撑的情况下,制造出与事实不符、甚至违背逻辑的错误信息。

概括而言,在最近两年AI大型模型快速进步的背景下,之前广泛存在的“幻觉”现象确实得到了一定程度的减轻。这主要是因为AI大型模型增强了网络搜索和推理等功能,从而使得这些模型在构建用户回复时,能够依据网络上的公共信息,通过推理手段,生成相应的AI回复。

然而,问题核心在于,面对网络中泛滥的虚假信息,人类本身都难以迅速分辨其真伪,而AI在信息核实方面更是显得力不从心。所以,在引用网络信息的过程中,便不可避免地产生了“垃圾输入,垃圾输出”的效应。

根据我个人的体会,在常规的写作任务中,人工智能尚无法完全取代人类的写作能力。实际上,新闻从业者即便使用AI来辅助创作,有时也可能遭遇效率下降的问题。这主要是因为验证AI生成内容的真实性占据了大量时间,即便AI引用了某个新闻网站的信息,排除了“幻觉”的可能,我们仍需对那个网站所报道的具体内容进行进一步的核实。在与众多新闻工作者交流的过程中,普遍观点是,“运用人工智能技术来创作新闻稿件,其效率实际上并不如亲自撰写。”

回顾这一事件,我们可以看到,它对AI的警示意义在于:AI如何在信息真伪难辨的网络环境中识别真相,以此增强其生成内容的准确性。唯有AI在生成回答的准确性上有所提升,方能在实际的生产领域得到广泛应用。以一个实例来看,这便是为何在众多企业采纳大型模型的过程中,至关重要的一个环节便是向模型输入企业特有的知识库,唯有如此,当员工向企业定制的大型模型提出问题时,才能确保得到准确的答案。

自然,人类的警示意义或许在于,当人类自己都在制造虚假信息时,人工智能便更难以提供精确的回应。

文章标题:DeepSeek对“王一博案”道歉?假新闻!

文章可访问此网址:https://www.huxiu.com/article/4537198.html,但请注意,链接内容仅供阅读参考。

免责声明:本站发布的所有文章图片内容,由AI一键生成,根据关键词和其他参数进行文章自动采集、加工、发布。不对文章内容的真实性、合法性、时效性负责。

版权所有 copyright 2019 长子县融媒体中心 XML地图
友情链接 石家庄市神兴小学 三门峡市农机农垦发展中心 永川行政服务中心 济南市市中区人民政府舜耕街道办事处 邢台市应急管理宣传教育培训中心

关于站点

长子县融媒体中心那可是有着重大的价值和意义!所谓融媒体中心,它是顺应媒体融合发展趋势而诞生的机构啦——将各种媒体形态整合在一起,长子县融媒体中心就是肩负着多方面使命滴。

搜索Search

搜索一下,你就知道。