論文の概要: Dialogic Pedagogy for Large Language Models: Aligning Conversational AI with Proven Theories of Learning
- arxiv url: http://arxiv.org/abs/2506.19484v1
- Date: Tue, 24 Jun 2025 10:19:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.589466
- Title: Dialogic Pedagogy for Large Language Models: Aligning Conversational AI with Proven Theories of Learning
- Title(参考訳): 大規模言語モデルのための対話的教育:学習理論を実証した会話型AIのアライメント
- Authors: Russell Beale,
- Abstract要約: 大言語モデル(LLM)は、リッチな会話学習体験を可能にすることによって、教育を変革している。
本稿では,LLMをベースとした会話エージェントが高等教育にどのように利用されているのかを概観する。
- 参考スコア(独自算出の注目度): 1.2691047660244332
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) are rapidly transforming education by enabling rich conversational learning experiences. This article provides a comprehensive review of how LLM-based conversational agents are being used in higher education, with extensions to secondary and lifelong learning contexts. We synthesize existing literature on LLMs in education and theories of conversational and dialogic pedagogy - including Vygotsky's sociocultural learning (scaffolding and the Zone of Proximal Development), the Socratic method, and Laurillard's conversational framework - and examine how prompting strategies and retrieval-augmented generation (RAG) can align LLM behaviors with these pedagogical theories, and how it can support personalized, adaptive learning. We map educational theories to LLM capabilities, highlighting where LLM-driven dialogue supports established learning principles and where it challenges or falls short of traditional pedagogical assumptions. Notable gaps in applying prior theories to LLMs are identified, such as the models tendency to provide direct answers instead of fostering co-construction of knowledge, and the need to account for the constant availability and broad but non-human expertise of LLM tutors. In response, we propose practical strategies to better align LLM interactions with sound pedagogy - for example, designing prompts that encourage Socratic questioning, scaffolded guidance, and student reflection, as well as integrating retrieval mechanisms to ensure accuracy and contextual relevance. Our aim is to bridge the gap between educational theory and the emerging practice of AI-driven conversational learning, offering insights and tools for making LLM-based dialogues more educationally productive and theory-aligned.
- Abstract(参考訳): 大きな言語モデル(LLM)は、リッチな会話学習体験を可能にすることによって、教育を急速に変革している。
本稿では,LLMをベースとした会話エージェントが高等教育でどのように使われているのかを概観する。
我々は,LLMの教育における既存の文献と,Vygotskyの社会文化的学習(スキャフォールディングと近接開発ゾーン),ソクラテスの手法,およびLaurillardの会話的枠組みなど,対話的教育学と対話的教育学の理論を合成し,これらの教育学理論とLLMの行動をどのように一致させるか,パーソナライズされ適応的な学習を支援するかを検討する。
教育理論をLLM能力にマッピングし、LLM駆動対話が確立された学習原則をサポートする場所と、従来の教育的仮定に欠ける場所を強調する。
例えば、モデルが知識の共構築を育む代わりに直接的な答えを提供する傾向があること、LLM家庭教師の絶え間ない可用性と広範かつ非人間的な専門知識を考慮する必要があることなどである。
本研究では,音の教育とLLMの相互作用をよりよく整合させる実践的戦略を提案する。例えば,ソクラテス的質問,足場指導,学生の振り返りを促すプロンプトを設計し,精度と文脈的関連性を確保するための検索機構を統合する。
我々の目標は、教育理論とAIによる会話学習の新たな実践のギャップを埋めることであり、LLMベースの対話をより教育的に生産的で理論に沿ったものにするための洞察とツールを提供することである。
関連論文リスト
- From Problem-Solving to Teaching Problem-Solving: Aligning LLMs with Pedagogy using Reinforcement Learning [76.09281171131941]
大規模言語モデル(LLM)は教育を変換することができるが、直接質問応答のための最適化はしばしば効果的な教育を損なう。
オンライン強化学習(RL)に基づくアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T15:00:07Z) - Not Minds, but Signs: Reframing LLMs through Semiotics [0.0]
本稿では,Large Language Models (LLMs) に関するセミオティックな視点を論じる。
LLMが言語を理解したり、人間の思考をシミュレートしたりするのではなく、言語形式を再結合し、再テクスチャ化し、循環させることが主な機能であると提案する。
我々は文学、哲学、教育、文化生産の応用を探究する。
論文 参考訳(メタデータ) (2025-05-20T08:49:18Z) - Enhanced Bloom's Educational Taxonomy for Fostering Information Literacy in the Era of Large Language Models [16.31527042425208]
本稿では,大規模言語モデル(LLM)を用いた学生の情報リテラシー(IL)の認識と評価を目的としたLLMによるブルーム教育分類法を提案する。
このフレームワークは、LLMを使用するために必要な認知能力に対応するILを、Exploration & ActionとCreation & Metacognitionの2つの異なるステージに分類する。
論文 参考訳(メタデータ) (2025-03-25T08:23:49Z) - Position: LLMs Can be Good Tutors in Foreign Language Education [87.88557755407815]
我々は、外国語教育(FLE)において、大きな言語モデル(LLM)が効果的な家庭教師として機能する可能性を主張する。
具体的には、(1)データエンハンサーとして、(2)学習教材の作成や学生シミュレーションとして、(2)タスク予測器として、学習者の評価や学習経路の最適化に、(3)エージェントとして、そして、パーソナライズされた包括的教育を可能にする3つの重要な役割を果たせる。
論文 参考訳(メタデータ) (2025-02-08T06:48:49Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - The Life Cycle of Large Language Models: A Review of Biases in Education [3.8757867335422485]
大規模言語モデル(LLM)は、学生や教師にパーソナライズされたサポートを提供するために、教育の文脈でますます採用されている。
教育技術におけるLLMの統合は、教育的不平等を悪化させる可能性のあるアルゴリズムバイアスに対して、新たな懸念を抱いている。
本論は,LLMアプリケーションにおける偏見の複雑な性質を明らかにすることを目的として,その評価のための実践的ガイダンスを提供する。
論文 参考訳(メタデータ) (2024-06-03T18:00:28Z) - History, Development, and Principles of Large Language Models-An Introductory Survey [15.875687167037206]
自然言語処理(NLP)の基盤となる言語モデル
数十年にわたる広範な研究を経て、言語モデリングは、初期統計言語モデル(SLM)から、大規模言語モデル(LLM)の現代的景観へと進歩してきた。
論文 参考訳(メタデータ) (2024-02-10T01:18:15Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。