来源:科技日报
科技日报记者 张梦然
据近日发表在预印本服务器bioRxiv上的一项研究,人工智能(AI)聊天机器人ChatGPT已可写出令人信服的假研究论文摘要,甚至连审稿科学家也无法发现。
(资料图片)
聊天机器人ChatGPT会根据用户提示创建逼真文本,它通过消化大量现有的人类生成文本来学习执行任务。美国的软件公司OpenAI于去年11月发布了该工具,并供用户免费使用。
科学家和出版业担心,聊天机器人的日益复杂可能会破坏研究的完整性和准确性。图片来源:泰德·许/阿拉米
自发布以来,研究人员一直在努力解决相关伦理道德问题,因为它大部分输出可能很难与人类撰写的文本区分开来。近日美国西北大学的一个研究小组使用ChatGPT生成人工研究论文摘要,以测试科学家是否可辨别它们。
研究人员要求机器人基于发表在《美国医学会杂志》《新英格兰医学杂志》《英国医学杂志》《柳叶刀》和《自然·医学》上的50篇研究编写摘要。然后,他们通过抄袭检测器和AI输出检测器将这些摘要与原始摘要进行比较,并要求一组医学研究人员找出编造的摘要。
结果,ChatGPT生成的摘要通过了抄袭检查器,原创性得分中位数为100%,表明没有检测到抄袭。人工智能输出检测器发现了66%的生成摘要,但人工审稿人只正确识别了68%的生成摘要和86%的真实摘要,他们错误地将生成摘要中的32%识别为真实,将14%的真实摘要识别为编造。
研究人员称,ChatGPT写出了能骗过人类的科学摘要,如果科学家无法确定研究是否属实,或会产生“可怕的后果”。
研究人员表示,在虚假信息会危及人们生命安全的医学等领域,期刊需要采取更严格的方法来验证信息的准确性。而这些问题的解决方案,不应集中在机器人本身,“而是导致这种行为的不正当激励措施,例如通过论文数量进行招聘和晋升审查,而不考虑其质量或影响”。
总编辑圈点
大火的ChatGPT,不止是聊天工具,它在教育领域的渗透已经引起了广泛关注和讨论,当然,随之而来的还有忧虑。如果你使用过ChatGPT,也会惊讶于它撰写报告的能力。给它一个主题,它就能在几秒内生成大纲,也能在几秒内进行细化,而且看起来非常是那么回事。这次,科研人员发现它撰写的论文甚至能骗过审稿人。这又是一个人如何使用新技术的经典伦理问题。工具本身无罪,但应用边界应该清晰,使用者也要对自己的行为负起责任。
关键词: 人工智能
校园安全手抄报资料大家了解过多少呢?校园安全手抄报资料范文
校园安全手抄报资料关于校园安全手抄报资料大家了解过多少呢?可能很多人都不是很清楚,下面就是小编分享的校园安全手抄报资料范文 ,一起...
方案应该怎么制定呢?帮大家整理的商务网站建设方案
商务网站建设方案(精选12篇)为确保事情或工作顺利开展,我们需要事先制定方案,方案是阐明具体行动的时间,地点,目的,预期效果,预算及方
还苦于找不到好的诗歌?帮大家整理的关于劳动节的诗歌
关于劳动节的诗歌(精选16首)在日常生活或是工作学习中,大家都接触过诗歌吧,诗歌一般饱含丰富的想象、联想和幻想。还苦于找不到好的诗歌?
“优秀共青团员”是共青团一种荣誉称号 一起来看优秀团员申报材料通用15篇
优秀团员申报材料15篇优秀团员评选标准(1)拥护党的领导,热爱祖国、热爱人民、热爱社会主义。坚持坚定正确的政治方向,高举中国特色社会主
什么样的文案才具有感染力呢?整理的三月适合发的朋友圈文案精选70条
三月适合发的朋友圈文案(精选70条)在日常学习、工作或生活中,越来越多人习惯于在朋友圈发布文案,文案用以分享自己的喜怒哀乐。什么样的文
关于我们 加入我们 联系我们 商务合作 粤ICP备18023326号-32
中国创氪网 www.chuanganwang.cn 版权所有
投稿投诉联系邮箱:85 572 98@qq.com