論文の概要: Hybrid LLM-Embedded Dialogue Agents for Learner Reflection: Designing Responsive and Theory-Driven Interactions
- arxiv url: http://arxiv.org/abs/2602.20486v1
- Date: Tue, 24 Feb 2026 02:29:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.581168
- Title: Hybrid LLM-Embedded Dialogue Agents for Learner Reflection: Designing Responsive and Theory-Driven Interactions
- Title(参考訳): 学習者反射のためのLLM-組込みハイブリッド対話エージェント:応答性および理論駆動的相互作用の設計
- Authors: Paras Sharma, YuePing Sha, Janet Shufor Bih Epse Fofang, Brayden Yan, Jess A. Turner, Nicole Balay, Hubert O. Asare, Angela E. B. Stewart, Erin Walker,
- Abstract要約: 大規模言語モデル(LLM)は、文脈に敏感な応答を生成できるが、何十年もの間、学習の相互作用がどのように構成されるべきかは研究されていない。
本稿では,LLM応答性を理論に整合したルールベースのフレームワークに組み込むハイブリッド対話システムを提案する。
- 参考スコア(独自算出の注目度): 4.3989412555127325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialogue systems have long supported learner reflections, with theoretically grounded, rule-based designs offering structured scaffolding but often struggling to respond to shifts in engagement. Large Language Models (LLMs), in contrast, can generate context-sensitive responses but are not informed by decades of research on how learning interactions should be structured, raising questions about their alignment with pedagogical theories. This paper presents a hybrid dialogue system that embeds LLM responsiveness within a theory-aligned, rule-based framework to support learner reflections in a culturally responsive robotics summer camp. The rule-based structure grounds dialogue in self-regulated learning theory, while the LLM decides when and how to prompt deeper reflections, responding to evolving conversation context. We analyze themes across dialogues to explore how our hybrid system shaped learner reflections. Our findings indicate that LLM-embedded dialogues supported richer learner reflections on goals and activities, but also introduced challenges due to repetitiveness and misalignment in prompts, reducing engagement.
- Abstract(参考訳): 対話システムは長い間学習者のリフレクションを支持しており、理論上は構造的な足場を提供するが、しばしばエンゲージメントの変化に対応するのに苦労している。
対照的に、Large Language Models (LLMs) は文脈に敏感な応答を生成できるが、学習の相互作用がどのように構成されるべきかという何十年もの研究からは知られておらず、教育理論との整合性に関する疑問が提起されている。
本稿では,文化的にレスポンシブなロボティクス・サマーキャンプにおける学習者のリフレクションを支援するために,LLM応答性を理論に整合したルールベースのフレームワークに組み込むハイブリッド対話システムを提案する。
ルールに基づく構造は自己制御学習理論の対話を基礎としており、LLMは会話の文脈の進化に対応するため、いつ、どのように深く反映するかを決定する。
我々は対話のテーマを分析し、ハイブリッドシステムがどのように学習者の反射を形作るかを探る。
以上の結果から,LLMを組み込んだ対話は,目標や活動に対するより豊かな学習者のリフレクションを支援するだけでなく,反復性や不適応による課題も導入し,エンゲージメントを低下させた。
関連論文リスト
- Self-evolving expertise in complex non-verifiable subject domains: dialogue as implicit meta-RL [0.0]
いわゆる「邪悪な問題」は、複雑な多次元の設定、検証不可能な結果、不均一な影響、客観的に正しい答えの欠如など、歴史を通じて人類を悩ませてきた。
現状の人工知能システム(特にLarge Language Modelベースのエージェント)は、そのような問題を解決するために人間と共同で研究されている。
この研究は、Dialecticaとのギャップに対処する。これは、エージェントが定義されたトピックに関する構造化された対話に従事し、メモリによる拡張、自己回帰、ポリシーに制約のあるコンテキスト編集を行うフレームワークである。
論文 参考訳(メタデータ) (2025-10-17T15:59:44Z) - EduDial: Constructing a Large-scale Multi-turn Teacher-Student Dialogue Corpus [59.693733170193944]
EduDialは総合的な多ターン教師/学生対話データセットである。
EduDialは345のコアナレッジポイントをカバーし、教師と学生エージェントの対話によって生成された34,250の対話セッションで構成されている。
論文 参考訳(メタデータ) (2025-10-14T18:18:43Z) - Discerning minds or generic tutors? Evaluating instructional guidance capabilities in Socratic LLMs [35.33577525791391]
本研究は,質問生成を超えて指導指導能力を強調する。
実際の教育対話を基盤としたベンチマークである GuideEval を提案する。
本稿では,行動促進型指導対話を活用した行動誘導型微調整戦略を提案する。
論文 参考訳(メタデータ) (2025-08-08T01:02:44Z) - A Theory of Adaptive Scaffolding for LLM-Based Pedagogical Agents [3.6084561124905297]
大規模言語モデル(LLM)は、学生の学習を支援するために意味のある対話を行う教育エージェントを作成する新しい機会を提供する。
本研究では,STEM+C学習に着目したLLMエージェントの適応的足場構築のための,エビデンス中心設計と社会認知理論を組み合わせたフレームワークを提案する。
この結果から,Inquizzitorは中核的な学習理論に沿った高品質な評価とインタラクションを提供し,教師が学生に価値をもたらす効果的な指導を提供することがわかった。
論文 参考訳(メタデータ) (2025-08-02T21:58:32Z) - Dialogic Pedagogy for Large Language Models: Aligning Conversational AI with Proven Theories of Learning [1.2691047660244332]
大言語モデル(LLM)は、リッチな会話学習体験を可能にすることによって、教育を変革している。
本稿では,LLMをベースとした会話エージェントが高等教育にどのように利用されているのかを概観する。
論文 参考訳(メタデータ) (2025-06-24T10:19:09Z) - Personalizing Student-Agent Interactions Using Log-Contextualized Retrieval Augmented Generation (RAG) [3.5262811753348715]
大規模言語モデル(LLM)は動的教育的相互作用を促進するが、信頼性、信頼、教育的価値を損なう。
Retrieval-augmented Generation (RAG)は、LLMの出力をキュレートした知識に基礎を置いているが、ユーザ入力と知識ベースとの明確なセマンティックリンクが必要である。
環境ログを用いて協調会話を文脈化することでRAG検索を強化した対数文脈化RAG(LC-RAG)を提案する。
論文 参考訳(メタデータ) (2025-05-22T19:31:40Z) - Plug-and-Play Policy Planner for Large Language Model Powered Dialogue
Agents [121.46051697742608]
そこで本稿では,PDPPという言語モデルプラグインを用いて対話問題を整理するための新たな対話ポリシー計画パラダイムを提案する。
具体的には、利用可能な人間の注釈付きデータに対する教師付き微調整を容易にするための新しいトレーニングフレームワークを開発する。
PPDPPは3つの異なるプロアクティブな対話アプリケーションにおいて、既存のアプローチを一貫して、実質的に上回っている。
論文 参考訳(メタデータ) (2023-11-01T03:20:16Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。