論文の概要: Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task
- arxiv url: http://arxiv.org/abs/2506.08872v1
- Date: Tue, 10 Jun 2025 15:04:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:42.661282
- Title: Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task
- Title(参考訳): ChatGPTの脳:AIアシスタントを用いた評価作業における認知的負債の蓄積
- Authors: Nataliya Kosmyna, Eugene Hauptmann, Ye Tong Yuan, Jessica Situ, Xian-Hao Liao, Ashly Vivian Beresnitzky, Iris Braunstein, Pattie Maes,
- Abstract要約: エッセイ執筆時の認知負荷評価には脳波を用いた。
我々は,NLPを用いたエッセイの分析と,人間の教師とAI判事の助けを借りてエッセイの評価を行った。
- 参考スコア(独自算出の注目度): 17.587485227667006
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study explores the neural and behavioral consequences of LLM-assisted essay writing. Participants were divided into three groups: LLM, Search Engine, and Brain-only (no tools). Each completed three sessions under the same condition. In a fourth session, LLM users were reassigned to Brain-only group (LLM-to-Brain), and Brain-only users were reassigned to LLM condition (Brain-to-LLM). A total of 54 participants took part in Sessions 1-3, with 18 completing session 4. We used electroencephalography (EEG) to assess cognitive load during essay writing, and analyzed essays using NLP, as well as scoring essays with the help from human teachers and an AI judge. Across groups, NERs, n-gram patterns, and topic ontology showed within-group homogeneity. EEG revealed significant differences in brain connectivity: Brain-only participants exhibited the strongest, most distributed networks; Search Engine users showed moderate engagement; and LLM users displayed the weakest connectivity. Cognitive activity scaled down in relation to external tool use. In session 4, LLM-to-Brain participants showed reduced alpha and beta connectivity, indicating under-engagement. Brain-to-LLM users exhibited higher memory recall and activation of occipito-parietal and prefrontal areas, similar to Search Engine users. Self-reported ownership of essays was the lowest in the LLM group and the highest in the Brain-only group. LLM users also struggled to accurately quote their own work. While LLMs offer immediate convenience, our findings highlight potential cognitive costs. Over four months, LLM users consistently underperformed at neural, linguistic, and behavioral levels. These results raise concerns about the long-term educational implications of LLM reliance and underscore the need for deeper inquiry into AI's role in learning.
- Abstract(参考訳): 本研究は,LLMを用いたエッセイ執筆の神経的および行動的結果について考察する。
参加者は、LSM、検索エンジン、Brain-only(ツールなし)の3つのグループに分けられた。
それぞれ同じ条件で3つのセッションを完了した。
第4セッションでは、LLMユーザをBrain-onlyグループ(LLM-to-Brain)に、Brain-to-LLMユーザをLLM条件(Brain-to-LLM)に割り当てた。
合計54人がセッション1-3に参加し、18人がセッション4を終えた。
我々は脳波を用いて、エッセイ執筆中の認知負荷を評価し、NLPを用いてエッセイを分析し、人間の教師やAI判事の助けを借りてエッセイを評価する。
Across group, NERs, n-gram pattern, topic ontology showed within-group homogeneity。
脳のみの参加者は最強で最も分散したネットワークを示し、検索エンジンのユーザは適度なエンゲージメントを示し、LLMのユーザは最も弱いコネクティビティを示した。
認知活動は、外部ツールの使用に関連してスケールダウンした。
セッション4ではLPM-to-Brainの参加者がαとβの接続を減らし、エンゲージメントが低かった。
Brain-to-LLMのユーザは、検索エンジンのユーザと同様、メモリリコールと、後頭頭前頭前野と前頭前野のアクティベーションが向上した。
自記エッセイの所有権はLLMグループの中では最低であり、ブレインオンリーグループでは最高であった。
LLMユーザーは自分の作品を正確に引用するのに苦労した。
LLMはすぐれた利便性を提供するが、我々の発見は認知コストの可能性を浮き彫りにしている。
4ヶ月にわたって、LLMユーザは神経、言語、行動のレベルにおいて一貫してパフォーマンスが劣っていた。
これらの結果は、LLM依存の長期的な教育的影響に関する懸念を提起し、AIが学習において果たす役割についてより深い調査の必要性を浮き彫りにしている。
関連論文リスト
- Understanding LLMs' Fluid Intelligence Deficiency: An Analysis of the ARC Task [71.61879949813998]
認知研究において、後者の能力は流体インテリジェンスと呼ばれ、人間のインテリジェンスを評価するために重要であると考えられている。
流体インテリジェンス評価に関する最近の研究は、LLMの能力に重大な欠陥を浮き彫りにした。
本研究は,既存のLSMにおいて,スキル構成能力の制限,抽象的な入力形式に慣れていないこと,左から右への復号化の本質的欠如の3つの大きな限界を明らかにした。
論文 参考訳(メタデータ) (2025-02-11T02:31:09Z) - Sharing Matters: Analysing Neurons Across Languages and Tasks in LLMs [70.3132264719438]
我々は,タスクや言語間でニューロンの活性化がどのように共有されるかを調べることで,研究ギャップを埋めることを目指している。
我々は、異なる言語にまたがる特定の入力に対する応答に基づいて、ニューロンを4つの異なるカテゴリに分類する。
分析の結果, (i) ニューロン共有のパターンはタスクや例の特徴に大きく影響され, (ii) ニューロン共有は言語類似性に完全には対応しない, (iii) 共有ニューロンは応答の生成において重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-13T16:04:11Z) - What Are Large Language Models Mapping to in the Brain? A Case Against Over-Reliance on Brain Scores [1.8175282137722093]
大規模言語モデル(LLM)の内部表現は最先端の脳スコアを達成し、人間の言語処理と計算原理を共有するという憶測に繋がる。
本稿では、LLM-to-Brainマッピングに関する衝撃的な研究で使用される3つのニューラルデータセットを分析し、参加者が短いパスを読み取るfMRIデータセットに特に焦点をあてる。
このデータセット上で訓練されたLLMの脳のスコアは、文の長さ、位置、代名詞による単語の埋め込みによって大きく説明できる。
論文 参考訳(メタデータ) (2024-06-03T17:13:27Z) - Do Large Language Models Mirror Cognitive Language Processing? [43.68923267228057]
大規模言語モデル(LLM)は、テキスト理解と論理的推論において顕著な能力を示した。
脳認知処理信号は、典型的には人間の言語処理を研究するために使用される。
論文 参考訳(メタデータ) (2024-02-28T03:38:20Z) - Unleashing the Emergent Cognitive Synergy in Large Language Models: A Task-Solving Agent through Multi-Persona Self-Collaboration [116.09561564489799]
Solo Performance Promptingは、複数のペルソナと多ターンの自己コラボレーションをすることで、単一のLCMを認知的シナジストに変換する。
認知シナジスト(英: Cognitive Synergist)は、複雑なタスクにおける問題解決を強化するために、複数の心の強みと知識を協調的に結合するインテリジェントエージェントである。
より詳細な分析により,LLMに複数の微粒なペルソナを割り当てることによって,単一あるいは固定数のペルソナに比べて問題解決能力が向上することが示された。
論文 参考訳(メタデータ) (2023-07-11T14:45:19Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。