論文の概要: Ensembling Large Language Models to Characterize Affective Dynamics in Student-AI Tutor Dialogues
- arxiv url: http://arxiv.org/abs/2510.13862v1
- Date: Mon, 13 Oct 2025 04:43:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.489557
- Title: Ensembling Large Language Models to Characterize Affective Dynamics in Student-AI Tutor Dialogues
- Title(参考訳): 学生とAI教師対話における影響ダイナミクスを特徴付ける大規模言語モデルの構築
- Authors: Chenyu Zhang, Sharifa Alghowinem, Cynthia Breazeal,
- Abstract要約: 本研究は、教師対話における大規模感情センシングのための最初のアンサンブル・LLMフレームワークを紹介する。
我々は、PyTutor(AI教師)と、米国の3つの機関における261人の学部生の間で交わされた16,986の会話型ターンの2つのセミメータについて分析した。
- 参考スコア(独自算出の注目度): 18.497635186707008
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While recent studies have examined the leaning impact of large language model (LLM) in educational contexts, the affective dynamics of LLM-mediated tutoring remain insufficiently understood. This work introduces the first ensemble-LLM framework for large-scale affect sensing in tutoring dialogues, advancing the conversation on responsible pathways for integrating generative AI into education by attending to learners' evolving affective states. To achieve this, we analyzed two semesters' worth of 16,986 conversational turns exchanged between PyTutor, an LLM-powered AI tutor, and 261 undergraduate learners across three U.S. institutions. To investigate learners' emotional experiences, we generate zero-shot affect annotations from three frontier LLMs (Gemini, GPT-4o, Claude), including scalar ratings of valence, arousal, and learning-helpfulness, along with free-text emotion labels. These estimates are fused through rank-weighted intra-model pooling and plurality consensus across models to produce robust emotion profiles. Our analysis shows that during interaction with the AI tutor, students typically report mildly positive affect and moderate arousal. Yet learning is not uniformly smooth: confusion and curiosity are frequent companions to problem solving, and frustration, while less common, still surfaces in ways that can derail progress. Emotional states are short-lived--positive moments last slightly longer than neutral or negative ones, but they are fragile and easily disrupted. Encouragingly, negative emotions often resolve quickly, sometimes rebounding directly into positive states. Neutral moments frequently act as turning points, more often steering students upward than downward, suggesting opportunities for tutors to intervene at precisely these junctures.
- Abstract(参考訳): 近年,大規模言語モデル(LLM)の教育的文脈における傾きの影響について検討している。
本研究は,教師対話における大規模感情知覚のための最初のアンサンブル・LLMフレームワークを導入し,学習者の発達する感情状態への参加によって,生成的AIを教育に組み込むための責任ある経路について会話を進める。
そこで我々は,LLMを利用したAI教師であるPyTutorと,米国3つの機関における261人の学部生の間で交わされた16,986の会話型ターンのセメータを解析した。
学習者の感情経験を調べるため,自由文感情ラベルとともに,有能感,覚醒,学習経験のスカラー評価を含む3つのフロンティアLSM(Gemini, GPT-4o, Claude)からゼロショット影響アノテーションを生成した。
これらの推定は、ランク重み付きモデル内プールとモデル間の複数のコンセンサスによって融合され、堅牢な感情プロファイルを生成する。
我々の分析では、AI教師との交流の中で、学生は通常、軽度にポジティブな影響と中程度の覚醒を報告している。
混乱と好奇心は問題解決によく伴うものであり、フラストレーションはそれほど一般的ではないが、進歩を損なうような形で表れている。
感情状態は短寿命の正のモーメントであり、中性または負のモーメントよりもわずかに長いが、脆弱で容易に破壊される。
強固に、ネガティブな感情はしばしば素早く解決し、時には正の状態に直結する。
中性モーメントは、しばしばターンポイントとして機能し、しばしば学生を下向きよりも上向きに操り、教師が正確にこれらの分岐に介入する機会を示唆する。
関連論文リスト
- Incongruent Positivity: When Miscalibrated Positivity Undermines Online Supportive Conversations [0.0]
感情的に支持的な会話では、よく意図された肯定性は時に誤火し、否定的、最小化、非現実的に楽観的な反応をもたらす。
本研究では,この不一致肯定の現象を,ヒトおよびLDM生成反応の正の支持の誤校正表現として検討した。
以上の結果から, 感情認知と肯定的影響のバランスをとるために, 一般的な肯定的反応を単に生成するだけではなく, 協調的支援策も検討する必要性が浮き彫りとなった。
論文 参考訳(メタデータ) (2025-09-12T12:25:02Z) - MathBuddy: A Multimodal System for Affective Math Tutoring [10.968012903118975]
MathBuddyはLLMで動くMath Tutorだ。
生徒の感情を関連する教育戦略にマッピングし、教師と学生の会話をより共感的なものにする。
DAMRスコアを用いて,勝利率と総合的な3ポイントゲインを用いて,23ポイントの大規模なパフォーマンスゲインを報告した。
論文 参考訳(メタデータ) (2025-08-27T15:50:43Z) - RLVER: Reinforcement Learning with Verifiable Emotion Rewards for Empathetic Agents [67.46032287312339]
大規模言語モデル(LLM)は論理的およびアルゴリズム的推論において優れているが、彼らの感情的知性(EQ)は認知能力よりもはるかに遅れている。
シミュレーションユーザによる検証可能な感情報酬を活用する,最初のエンドツーエンド強化学習フレームワークであるRLVERを紹介する。
以上の結果から,RLVERは感情的知的で幅広い言語エージェントへの実践的な経路であることが示唆された。
論文 参考訳(メタデータ) (2025-07-03T18:33:18Z) - Conversations: Love Them, Hate Them, Steer Them [10.014248704653]
大きな言語モデル (LLMs) は会話の流布を増大させるが、人間のようなニュアンスな感情表現でそれらを注入することは大きな課題である。
本稿では,LLaMA 3.1-8Bにより,より人間らしく感情的なニュアンスを示すことができることを示す。
論文 参考訳(メタデータ) (2025-05-23T02:58:45Z) - Student-AI Interaction in an LLM-Empowered Learning Environment: A Cluster Analysis of Engagement Profiles [28.794946431719392]
本研究では,多エージェント LLM を用いた学習環境における多様な学習者のプロファイルについて検討した。
学生は様々な行動、認知、感情的なエンゲージメントの傾向を示す。
論文 参考訳(メタデータ) (2025-03-03T16:08:28Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - Opportunities and Challenges in Neural Dialog Tutoring [54.07241332881601]
言語学習のための2つの対話学習データセットを用いて、様々な生成言語モデルを厳密に分析する。
現在のアプローチでは、制約のある学習シナリオでチューリングをモデル化できますが、制約の少ないシナリオではパフォーマンスが悪くなります。
人的品質評価では, モデルと接地木アノテーションの両方が, 同等のチュータリングの点で低い性能を示した。
論文 参考訳(メタデータ) (2023-01-24T11:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。