教授称因关闭 ChatGPT 数据授权,两年学术成果瞬间清零 IT之家 1 月 25 日消息,如果要给房东写一封措辞强硬的邮件,反 映天花板漏水的问题,需要找个帮手把关,那么 ChatGPT 或许是个 不错的工具。但和所有同类竞品一样,ChatGPT 也存在诸多有据可查 的缺陷:它不仅常常生成虚假信息,还自带一种谄媚讨好的语气,极 易让用户陷入严重的认知误区。 图片:https://img.ithome.com/newsuploadfiles/2026/1/f3e98fee -9554-4ed6-99a9-64a1037703e0.jpg?x-bce-process=image/format, f_auto 换句话说,它绝非人们处理重要工作时可以依赖的工具,科隆大学植 物科学教授马塞尔布赫就吃了大亏,才明白了这个道理。 IT之家注意到,布赫在《自然》杂志的一篇专栏中坦言,自从关闭了 ChatGPT 的“数据授权”功能后,他两年来精心整理的学术成果,包 括科研经费申请材料、论文修订稿、课程讲义和考试题目,全都“不 翼而飞”了。 他当初关闭这项功能,是想验证“即便不向 OpenAI 提供个人数据, 自己是否仍能使用该模型的全部功能”。可令他崩溃的是,所有聊天 记录瞬间消失得无影无踪。 “没有任何预警提示,”布赫写道,“也没有撤销选项,只留下一片空 白的页面。” 这篇专栏发布后,有网友质疑,布赫怎么能两年来都不做本地备份? 也有人怒不可遏,呼吁校方解雇他,理由是他在学术工作中过度依赖 人工智能。 不过,也有一些人对他表示同情。海德堡大学教学协调员罗兰格罗 姆斯在社交平台上发文称:“尽管马塞尔布赫的工作流程漏洞百出 ,还犯了个愚蠢的错误,但他敢于公开这段经历,值得肯定。很多科 研人员都觉得自己能识破所有陷阱,可事实上,每个人都可能因一时 疏忽,遭遇这样的麻烦。” 布赫也率先承认,ChatGPT 生成的内容“看似言之凿凿,实则有时漏 洞百出”。他强调自己从未“将模型的可靠性等同于内容的真实性”, 但他“信赖平台工作区的连续性和表面稳定性”,每天都把 ChatGPT P lus 当作贴身助手使用。 生成式人工智能在科学界的应用,一直争议不断。据《大西洋月刊》 报道,大量来源不明、由 AI 拼凑的劣质稿件正涌入各大科学期刊, 让同行评审沦为一场“灾难”。更有甚者,一些专门发表 AI 垃圾稿件 的虚假学术期刊应运而生,借机牟利。最终的结果就是:AI 生成的 劣质内容,交由 AI 模型进行同行评审,这进一步加剧了对学术文献 的污染。 与此同时,科研人员经常收到通知,被告知自己的研究成果在新论文 中被引用,但点进去后却发现,相关引用内容纯属 AI 虚构。 需要明确的是,目前没有任何证据表明,布赫曾试图将 AI 生成的劣 质内容塞给学生,或是发表不实的 AI 撰写研究成果。 尽管如此,他的这段惨痛经历,仍为所有人敲响了警钟。 布赫在专栏中指责 OpenAI:在未能提供“基础保护措施”以防止用户 数年心血毁于一旦的情况下,就贸然推出 ChatGPT Plus 付费订阅服 务。 OpenAI 在给《自然》杂志的一份声明中回应称,聊天记录一旦删除 便“无法恢复”,并反驳了布赫“未收到任何提示”的说法,强调“用户 在永久删除聊天记录前,系统会弹出确认窗口”。该公司还“贴心”建 议:“用户在处理专业工作时,应做好个人数据备份。”