論文の概要: Letting Tutor Personas "Speak Up" for LLMs: Learning Steering Vectors from Dialogue via Preference Optimization
- arxiv url: http://arxiv.org/abs/2602.07639v1
- Date: Sat, 07 Feb 2026 17:44:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.733948
- Title: Letting Tutor Personas "Speak Up" for LLMs: Learning Steering Vectors from Dialogue via Preference Optimization
- Title(参考訳): LLMのためのチュータペルソナを"スピーカーアップ"する: 優先最適化による対話からのステアリングベクトルの学習
- Authors: Jaewook Lee, Alexander Scarlatos, Simon Woodhead, Andrew Lan,
- Abstract要約: 教師と学生の対話に埋め込まれた教師ペルソナが、明示的に指示された指示に頼らずにLLM行動の指導にどのように使えるかを示す。
ステアリングベクトルは、対話コンテキスト間でのチューター固有の変化をキャプチャし、接地型チューター発話とのセマンティックアライメントを改善し、嗜好に基づく評価を増大させる。
- 参考スコア(独自算出の注目度): 45.40380629269521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the emergence of large language models (LLMs) as a powerful class of generative artificial intelligence (AI), their use in tutoring has become increasingly prominent. Prior works on LLM-based tutoring typically learn a single tutor policy and do not capture the diversity of tutoring styles. In real-world tutor-student interactions, pedagogical intent is realized through adaptive instructional strategies, with tutors varying the level of scaffolding, instructional directiveness, feedback, and affective support in response to learners' needs. These differences can all impact dialogue dynamics and student engagement. In this paper, we explore how tutor personas embedded in human tutor-student dialogues can be used to guide LLM behavior without relying on explicitly prompted instructions. We modify Bidirectional Preference Optimization (BiPO) to learn a steering vector, an activation-space direction that steers model responses towards certain tutor personas. We find that this steering vector captures tutor-specific variation across dialogue contexts, improving semantic alignment with ground-truth tutor utterances and increasing preference-based evaluations, while largely preserving lexical similarity. Analysis of the learned directional coefficients further reveals interpretable structure across tutors, corresponding to consistent differences in tutoring behavior. These results demonstrate that activation steering offers an effective and interpretable way for controlling tutor-specific variation in LLMs using signals derived directly from human dialogue data.
- Abstract(参考訳): 生成人工知能(AI)の強力なクラスとしての大規模言語モデル(LLM)の出現に伴い、チュータリングにおける利用がますます顕著になっている。
LLMベースのチュータリングに関する先行研究は、典型的には単一のチュータポリシーを学び、チュータリングスタイルの多様性を捉えない。
実世界の家庭教師と学生の交流において、教育者は学習者のニーズに応じて、足場、指導指示性、フィードバック、感情的支援のレベルを変えることで、適応的な指導戦略を通じて教育意図が実現される。
これらの違いは、ダイアログのダイナミクスと学生のエンゲージメントに影響を与える可能性がある。
本稿では,教師と学生の対話に埋め込まれた教師ペルソナを,明示的に指示された指示に頼らずにLLM行動の指導に利用する方法について検討する。
本研究では,バイオリエント優先最適化 (Bidirectional Preference Optimization, BiPO) を改良し,特定の教師のペルソナに対する応答をモデル化するステアリングベクトル,すなわちアクティベーション空間の方向を学習する。
このステアリングベクターは、対話コンテキスト間でのチューター固有の変動を捉え、接地型チューター発話とのセマンティックアライメントを改善し、嗜好に基づく評価を向上し、語彙的類似性を大幅に保存する。
学習方向係数の解析により、チュータ間の解釈可能な構造が明らかになり、チュータの動作に一貫した相違が生じる。
これらの結果から, アクティベーションステアリングは, 人間の対話データから直接引き起こされる信号を用いて, LLMにおけるチューター固有の変動を効果的かつ解釈可能な方法で制御できることが示唆された。
関連論文リスト
- PATS: Personality-Aware Teaching Strategies with Large Language Model Tutors [66.56586559631516]
大型言語モデル (LLM) は教育教師としての可能性を秘めている。
しかし、異なる学習戦略は、異なる学生の個性に利益をもたらす。
それにもかかわらず、現在のLLM教育システムは生徒の性格特性を考慮に入れていない。
論文 参考訳(メタデータ) (2026-01-13T10:17:26Z) - Exploring Conversational Design Choices in LLMs for Pedagogical Purposes: Socratic and Narrative Approaches for Improving Instructor's Teaching Practice [24.54129847914925]
本研究では,2つの対話的アプローチを通じて指導者の専門的発達を支援する大規模言語モデルであるTeaPTを評価する。
指導的質問を用いてリフレクションを育むソクラテス的アプローチと、外部認知を拡張するための詳細な提案を提供するナララティブアプローチである。
経験の浅いAI最適化インストラクターはソクラテス版を好んだが、より経験の浅いAI教育インストラクターはナラティブ版を好んだ。
論文 参考訳(メタデータ) (2025-09-15T16:33:37Z) - Discerning minds or generic tutors? Evaluating instructional guidance capabilities in Socratic LLMs [35.33577525791391]
本研究は,質問生成を超えて指導指導能力を強調する。
実際の教育対話を基盤としたベンチマークである GuideEval を提案する。
本稿では,行動促進型指導対話を活用した行動誘導型微調整戦略を提案する。
論文 参考訳(メタデータ) (2025-08-08T01:02:44Z) - Efficient RL for optimizing conversation level outcomes with an LLM-based tutor [28.21843718188098]
大規模言語モデル(LLM)は、人間フィードバック(RLHF)フレームワークによる既存の強化学習に基づいて構築される。
学生の低次元潜在状態表現を用いて対話履歴を表現し,LLMに基づくチュータを強化する手法を提案する。
我々のモデルは軽量であり、チューターの次の発話を直接出力するために、チューターポリシーをエンドツーエンドにトレーニングする以前の作業よりも計算資源を少なくする。
論文 参考訳(メタデータ) (2025-07-22T05:56:46Z) - Exploring LLMs for Predicting Tutor Strategy and Student Outcomes in Dialogues [48.99818550820575]
近年の研究では、教師が使う戦略が学生の成績に重大な影響を与えることが示されている。
対話における教師戦略の予測に関する研究は少ない。
本稿では,現代のLLM,特にLlama 3 と GPT-4o を用いて,対話における将来の教師の動きと学生の成果を予測する能力について検討する。
論文 参考訳(メタデータ) (2025-07-09T14:47:35Z) - From Problem-Solving to Teaching Problem-Solving: Aligning LLMs with Pedagogy using Reinforcement Learning [82.50157695987558]
大規模言語モデル(LLM)は教育を変換することができるが、直接質問応答のための最適化はしばしば効果的な教育を損なう。
オンライン強化学習(RL)に基づくアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T15:00:07Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。