論文の概要: From Superficial Outputs to Superficial Learning: Risks of Large Language Models in Education
- arxiv url: http://arxiv.org/abs/2509.21972v2
- Date: Mon, 03 Nov 2025 02:14:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 16:14:22.264628
- Title: From Superficial Outputs to Superficial Learning: Risks of Large Language Models in Education
- Title(参考訳): 表層結果から表層学習へ:教育における大規模言語モデルのリスク
- Authors: Iris Delikoura, Yi. R Fung, Pan Hui,
- Abstract要約: 大規模言語モデル(LLM)は、パーソナライズ、フィードバック、知識アクセスを可能にすることで教育を変革している。
しかし、これらのリスクに関する実証的な証拠は依然として断片化されている。
本稿では,コンピュータ科学,教育,心理学にまたがる70の実証的研究を体系的にレビューする。
- 参考スコア(独自算出の注目度): 14.320271477960192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are transforming education by enabling personalization, feedback, and knowledge access, while also raising concerns about risks to students and learning systems. Yet empirical evidence on these risks remains fragmented. This paper presents a systematic review of 70 empirical studies across computer science, education, and psychology. Guided by four research questions, we examine: (i) which applications of LLMs in education have been most frequently explored; (ii) how researchers have measured their impact; (iii) which risks stem from such applications; and (iv) what mitigation strategies have been proposed. We find that research on LLMs clusters around three domains: operational effectiveness, personalized applications, and interactive learning tools. Across these, model-level risks include superficial understanding, bias, limited robustness, anthropomorphism, hallucinations, privacy concerns, and knowledge constraints. When learners interact with LLMs, these risks extend to cognitive and behavioural outcomes, including reduced neural activity, over-reliance, diminished independent learning skills, and a loss of student agency. To capture this progression, we propose an LLM-Risk Adapted Learning Model that illustrates how technical risks cascade through interaction and interpretation to shape educational outcomes. As the first synthesis of empirically assessed risks, this review provides a foundation for responsible, human-centred integration of LLMs in education.
- Abstract(参考訳): 大規模言語モデル(LLM)は、個人化、フィードバック、知識アクセスを可能にするとともに、学生や学習システムに対するリスクへの懸念を高めることによって、教育を変革している。
しかし、これらのリスクに関する実証的な証拠は依然として断片化されている。
本稿では,コンピュータ科学,教育,心理学にまたがる70の実証的研究を体系的にレビューする。
4つの研究質問に導かれると、以下のようになる。
i) 教育における LLM の適用が最も多く検討されているもの
二 研究者がその影響を測る方法
三 当該出願に起因するリスク
(4) 緩和策が提案されているもの。
運用効率,パーソナライズされたアプリケーション,対話型学習ツールの3つの領域を対象として,LLMクラスタの研究を行った。
これらのモデルレベルのリスクには、表面的理解、バイアス、限定された堅牢性、人類同型、幻覚、プライバシーの懸念、知識の制約が含まれる。
学習者がLLMと対話する場合、これらのリスクは、神経活動の減少、過度な信頼、独立した学習スキルの低下、学生エージェンシーの喪失など、認知的および行動的な結果にまで及ぶ。
この進展を捉えるため,LLM-Risk Adapted Learning Modelを提案する。
経験的に評価されたリスクの最初の合成として、このレビューは、教育におけるLLMの責任ある人間中心の統合の基礎を提供する。
関連論文リスト
- The Landscape of Memorization in LLMs: Mechanisms, Measurement, and Mitigation [97.0658685969199]
大規模言語モデル(LLM)は、幅広いタスクにわたって顕著な能力を示してきたが、トレーニングデータの記憶も示している。
本稿では,最近の研究成果を整理し,記憶の景観,その影響要因,その検出・緩和方法について考察する。
論文 参考訳(メタデータ) (2025-07-08T01:30:46Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Quantifying Risk Propensities of Large Language Models: Ethical Focus and Bias Detection through Role-Play [4.343589149005485]
大きな言語モデル(LLM)がより普及するにつれて、その安全性、倫理、潜在的なバイアスに対する懸念が高まっている。
本研究は,認知科学からLLMまで,Domain-Specific Risk-Taking(DOSPERT)尺度を革新的に適用する。
本研究では,LLMの倫理的リスク態度を深く評価するために,倫理的意思決定リスク態度尺度(EDRAS)を提案する。
論文 参考訳(メタデータ) (2024-10-26T15:55:21Z) - When Machine Unlearning Meets Retrieval-Augmented Generation (RAG): Keep Secret or Forget Knowledge? [15.318301783084681]
大規模言語モデル(LLM)は、トレーニング中に機密情報や有害なコンテンツを不注意に学習し、保持することができる。
本稿では,RAG(Retrieval-Augmented Generation)技術に基づく軽量なアンラーニングフレームワークを提案する。
われわれはChatGPT, Gemini, Llama-2-7b-chat-hf, PaLM 2 など,オープンソースおよびクローズドソースモデルの広範な実験を通じてフレームワークを評価する。
論文 参考訳(メタデータ) (2024-10-20T03:51:01Z) - Risks, Causes, and Mitigations of Widespread Deployments of Large Language Models (LLMs): A Survey [0.0]
大規模言語モデル(LLM)は、テキスト生成、要約、分類において優れた能力を持つ自然言語処理(NLP)を変革した。
彼らの普及は、学術的完全性、著作権、環境への影響、データバイアス、公正性、プライバシといった倫理的考察など、多くの課題をもたらす。
本稿は、Google Scholarから体系的に収集・合成されたこれらの主題に関する文献に関する総合的な調査である。
論文 参考訳(メタデータ) (2024-08-01T21:21:18Z) - Beyond Human Norms: Unveiling Unique Values of Large Language Models through Interdisciplinary Approaches [69.73783026870998]
本研究では,大言語モデルの固有値システムをスクラッチから再構築する新しいフレームワークであるValueLexを提案する。
語彙仮説に基づいて、ValueLexは30以上のLLMから様々な値を引き出すための生成的アプローチを導入している。
我々は,3つのコア値次元,能力,キャラクタ,積分をそれぞれ特定の部分次元で同定し,LLMが非人間的だが構造化された価値体系を持っていることを明らかにした。
論文 参考訳(メタデータ) (2024-04-19T09:44:51Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。