大型语言模型对学习认知负载的影响分析.pdf

大型语言模型对学习认知负载的影响分析.pdf
本文是一项关于使用大型语言模型(LLM)如ChatGPT对人类认知影响的研究。研究调查了在撰写论文时使用LLM所带来的认知成本。 研究将参与者分为三组:LLM组、搜索引擎组和纯人脑组,要求他们使用指定的工具(或不使用工具)撰写论文。通过脑电图(EEG)记录参与者的脑活动,并进行自然语言处理(NLP)分析和访谈,评估认知参与度和认知负荷。 研究发现,LLM、搜索引擎和纯人脑组在神经连接模式上存在显著差异,反映了不同的认知策略。外部支持越多,大脑连接越弱。LLM组表现出最弱的整体连接。在第四次实验中,原本LLM组转为纯人脑写作的参与者表现出较弱的神经连接,而原本纯人脑写作转为LLM组的参与者则表现出更高的记忆回忆和广泛的脑区重新激活。访谈显示,LLM组参与者对自己所写论文的拥有感较低。LLM的使用对学习技能产生了可衡量的负面影响,长期来看,LLM组的参与者在神经、语言和评分等各个层面都比纯人脑组表现更差。 研究还探讨了搜索和LLM中的“回声室”效应,即用户可能陷入强化现有信念的信息环境中。论文分析了命名实体识别(NER)、n-gram,并使用PaCMAP进行嵌入聚类分析,以探究不同写作方法对语言使用的影响。结果表明,使用LLM会影响脑部活动、语言模式和认知所有权,长期来看可能会降低学习能力。 总体而言,研究结果表明,虽然LLM可以提供便利和效率,但过度依赖LLM可能会对认知发展和学习产生负面影响。因此,需要谨慎使用LLM,并在教育环境中促进批判性思维和自主学习。
下载完整报告 | 34.55 MB | 206页
阅读和下载会消耗积分;登录、注册、邀请好友、上传报告可获取积分。
成为VIP会员可免费阅读和下载报告