論文の概要: PATS: Personality-Aware Teaching Strategies with Large Language Model Tutors
- arxiv url: http://arxiv.org/abs/2601.08402v1
- Date: Tue, 13 Jan 2026 10:17:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.147129
- Title: PATS: Personality-Aware Teaching Strategies with Large Language Model Tutors
- Title(参考訳): PATS:大規模言語モデルテュータを用いた個人性を考慮した教育戦略
- Authors: Donya Rooein, Sankalan Pal Chowdhury, Mariia Eremeeva, Yuan Qin, Debora Nozza, Mrinmaya Sachan, Dirk Hovy,
- Abstract要約: 大型言語モデル (LLM) は教育教師としての可能性を秘めている。
しかし、異なる学習戦略は、異なる学生の個性に利益をもたらす。
それにもかかわらず、現在のLLM教育システムは生徒の性格特性を考慮に入れていない。
- 参考スコア(独自算出の注目度): 66.56586559631516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in large language models (LLMs) demonstrate their potential as educational tutors. However, different tutoring strategies benefit different student personalities, and mismatches can be counterproductive to student outcomes. Despite this, current LLM tutoring systems do not take into account student personality traits. To address this problem, we first construct a taxonomy that links pedagogical methods to personality profiles, based on pedagogical literature. We simulate student-teacher conversations and use our framework to let the LLM tutor adjust its strategy to the simulated student personality. We evaluate the scenario with human teachers and find that they consistently prefer our approach over two baselines. Our method also increases the use of less common, high-impact strategies such as role-playing, which human and LLM annotators prefer significantly. Our findings pave the way for developing more personalized and effective LLM use in educational applications.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、教育教師としての可能性を示している。
しかし、異なる学習戦略は生徒の個性に有益であり、ミスマッチは学生の成果に反する効果がある。
それにもかかわらず、現在のLLM教育システムは生徒の性格特性を考慮に入れていない。
この問題に対処するため,我々はまず,教育学的手法と人格的プロファイルを結びつける分類法を構築した。
我々は,学生と教師の会話をシミュレートし,LLM教師が生徒の性格をシミュレートしてその戦略を調整できるようにする。
このシナリオを人間教師で評価し、2つのベースラインよりも我々のアプローチを常に好んでいることを発見した。
また,人間やLLMアノテータが好むロールプレイングのような,あまり一般的でない高インパクト戦略の利用も促進する。
我々の研究は、よりパーソナライズされ効果的なLLMの教育応用への道を開いた。
関連論文リスト
- Learning by Teaching: Engaging Students as Instructors of Large Language Models in Computer Science Education [4.088336228217055]
大規模言語モデル(LLM)はコンピュータサイエンス(CS)教育における仮想チューターとしてよく用いられる。
本稿では,このモデルを逆転させる新たな教育パラダイムについて述べる。
論文 参考訳(メタデータ) (2025-08-08T03:25:19Z) - Exploring LLMs for Predicting Tutor Strategy and Student Outcomes in Dialogues [48.99818550820575]
近年の研究では、教師が使う戦略が学生の成績に重大な影響を与えることが示されている。
対話における教師戦略の予測に関する研究は少ない。
本稿では,現代のLLM,特にLlama 3 と GPT-4o を用いて,対話における将来の教師の動きと学生の成果を予測する能力について検討する。
論文 参考訳(メタデータ) (2025-07-09T14:47:35Z) - From Problem-Solving to Teaching Problem-Solving: Aligning LLMs with Pedagogy using Reinforcement Learning [82.50157695987558]
大規模言語モデル(LLM)は教育を変換することができるが、直接質問応答のための最適化はしばしば効果的な教育を損なう。
オンライン強化学習(RL)に基づくアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T15:00:07Z) - Towards the Pedagogical Steering of Large Language Models for Tutoring: A Case Study with Modeling Productive Failure [36.83786872708736]
1対1の授業は、最も効果的な教育方法の1つである。
我々は、LSMプロンプトを最適化し、遷移グラフとして表される事前定義されたマルチターンチューリング計画に従うアルゴリズムであるStratLを開発した。
ケーススタディとして,先進的で効果的な学習設計であるProductive Failure (PF) に続く,高校数学のプロトタイプチューターを作成する。
論文 参考訳(メタデータ) (2024-10-03T16:15:41Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - AutoTutor meets Large Language Models: A Language Model Tutor with Rich Pedagogy and Guardrails [43.19453208130667]
大規模言語モデル(LLM)は、自動質問生成からエッセイ評価まで、いくつかのユースケースを教育で発見した。
本稿では,Large Language Models (LLMs) を用いて知的チューリングシステムを構築する可能性について検討する。
MWPTutor は LLM を用いて事前定義された有限状態トランスデューサの状態空間を補う。
論文 参考訳(メタデータ) (2024-02-14T14:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。