根据麻省理工学院(MIT)研究人员的最新研究,诸如OpenAI的ChatGPT这样的人工智能聊天机器人可能会削弱认知能力。
在麻省理工学院媒体实验室的研究中,54名参与者通过三种指定的方法和工具完成了三轮论文写作任务:使用ChatGPT、搜索引擎以及仅依靠自己的大脑。
在第四轮中,研究人员要求使用ChatGPT的小组不使用任何工具,而仅依靠大脑的小组则被要求使用大型语言模型(LLM)。
结果令人震惊,人工智能用户表现出较差的记忆回忆能力,超过83%的ChatGPT用户无法引用他们几分钟前写的论文内容。
销售技术机构ColdIQ的联合创始人Alex Vacca将这一结果描述为“令人恐惧”,并补充说,人工智能并没有让我们更高效,“它正在让我们在认知上破产。”
“你写下一些东西,点击保存,大脑就已经忘记了,因为ChatGPT替你思考了。”
研究人员表示,大脑连接性随着外部支持的增加而“系统性地减少”。
“仅依靠大脑的小组展现出最强、最广泛的网络,搜索引擎小组显示出中等程度的参与,而LLM辅助的小组整体耦合最弱,”他们说道。
研究人员使用脑电图(EEG)记录大脑活动,以评估参与者在任务中的认知参与度和认知负荷。
他们发现,重复依赖如LLM这样的外部系统可能会导致“认知债务”的积累,这些系统替代了独立思考所需的认知过程。
“认知债务在短期内推迟了脑力劳动,但会导致长期成本,如批判性探究能力的减弱、易受操纵性的增加、创造力的下降。”
这份尚未经过同行评审的论文表明,使用人工智能LLM实际上可能会损害学习能力,尤其是对年轻用户而言。
“在本研究中,我们根据研究结果展示了学习技能可能下降这一紧迫问题,”研究人员总结道。
研究人员表示,需要进行“纵向研究”以了解人工智能聊天机器人对人类大脑的长期影响,“在LLM被认为是人类净正面的东西之前。”
当Cointelegraph询问ChatGPT对该研究的看法时,该聊天机器人回复说:“这项研究并未说ChatGPT本质上是有害的——相反,它警告不要在没有反思或努力的情况下过度依赖。”
相关推荐:埃隆·马斯克的AI公司xAI因数据中心空气污染面临诉讼
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。