論文の概要: From Superficial Outputs to Superficial Learning: Risks of Large Language Models in Education
- arxiv url: http://arxiv.org/abs/2509.21972v1
- Date: Fri, 26 Sep 2025 06:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.250789
- Title: From Superficial Outputs to Superficial Learning: Risks of Large Language Models in Education
- Title(参考訳): 表層結果から表層学習へ:教育における大規模言語モデルのリスク
- Authors: Iris Delikoura, Yi. R, Fung, Pan Hui,
- Abstract要約: 大規模言語モデル(LLM)は、パーソナライズ、フィードバック、知識アクセスを可能にすることで教育を変革している。
しかし、これらのリスクに関する実証的な証拠は依然として断片化されている。
本稿では,コンピュータ科学,教育,心理学にまたがる70の実証的研究を体系的にレビューする。
- 参考スコア(独自算出の注目度): 9.570727462794334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are transforming education by enabling personalization, feedback, and knowledge access, while also raising concerns about risks to students and learning systems. Yet empirical evidence on these risks remains fragmented. This paper presents a systematic review of 70 empirical studies across computer science, education, and psychology. Guided by four research questions, we examine: (i) which applications of LLMs in education have been most frequently explored; (ii) how researchers have measured their impact; (iii) which risks stem from such applications; and (iv) what mitigation strategies have been proposed. We find that research on LLMs clusters around three domains: operational effectiveness, personalized applications, and interactive learning tools. Across these, model-level risks include superficial understanding, bias, limited robustness, anthropomorphism, hallucinations, privacy concerns, and knowledge constraints. When learners interact with LLMs, these risks extend to cognitive and behavioural outcomes, including reduced neural activity, over-reliance, diminished independent learning skills, and a loss of student agency. To capture this progression, we propose an LLM-Risk Adapted Learning Model that illustrates how technical risks cascade through interaction and interpretation to shape educational outcomes. As the first synthesis of empirically assessed risks, this review provides a foundation for responsible, human-centred integration of LLMs in education.
- Abstract(参考訳): 大規模言語モデル(LLM)は、個人化、フィードバック、知識アクセスを可能にするとともに、学生や学習システムに対するリスクへの懸念を高めることによって、教育を変革している。
しかし、これらのリスクに関する実証的な証拠は依然として断片化されている。
本稿では,コンピュータ科学,教育,心理学にまたがる70の実証的研究を体系的にレビューする。
4つの研究質問に導かれると、以下のようになる。
i) 教育における LLM の適用が最も多く検討されているもの
二 研究者がその影響を測る方法
三 当該出願に起因するリスク
(4) 緩和策が提案されているもの。
運用効率,パーソナライズされたアプリケーション,対話型学習ツールの3つの領域を対象として,LLMクラスタの研究を行った。
これらのモデルレベルのリスクには、表面的理解、バイアス、限定された堅牢性、人類同型、幻覚、プライバシーの懸念、知識の制約が含まれる。
学習者がLLMと対話する場合、これらのリスクは、神経活動の減少、過度な信頼、独立した学習スキルの低下、学生エージェンシーの喪失など、認知的および行動的な結果にまで及ぶ。
この進展を捉えるため,LLM-Risk Adapted Learning Modelを提案する。
経験的に評価されたリスクの最初の合成として、このレビューは、教育におけるLLMの責任ある人間中心の統合の基礎を提供する。
関連論文リスト
- When Machine Unlearning Meets Retrieval-Augmented Generation (RAG): Keep Secret or Forget Knowledge? [15.318301783084681]
大規模言語モデル(LLM)は、トレーニング中に機密情報や有害なコンテンツを不注意に学習し、保持することができる。
本稿では,RAG(Retrieval-Augmented Generation)技術に基づく軽量なアンラーニングフレームワークを提案する。
われわれはChatGPT, Gemini, Llama-2-7b-chat-hf, PaLM 2 など,オープンソースおよびクローズドソースモデルの広範な実験を通じてフレームワークを評価する。
論文 参考訳(メタデータ) (2024-10-20T03:51:01Z) - Risks, Causes, and Mitigations of Widespread Deployments of Large Language Models (LLMs): A Survey [0.0]
大規模言語モデル(LLM)は、テキスト生成、要約、分類において優れた能力を持つ自然言語処理(NLP)を変革した。
彼らの普及は、学術的完全性、著作権、環境への影響、データバイアス、公正性、プライバシといった倫理的考察など、多くの課題をもたらす。
本稿は、Google Scholarから体系的に収集・合成されたこれらの主題に関する文献に関する総合的な調査である。
論文 参考訳(メタデータ) (2024-08-01T21:21:18Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。