論文の概要: Intent Matters: Enhancing AI Tutoring with Fine-Grained Pedagogical Intent Annotation
- arxiv url: http://arxiv.org/abs/2506.07626v1
- Date: Mon, 09 Jun 2025 10:45:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.916116
- Title: Intent Matters: Enhancing AI Tutoring with Fine-Grained Pedagogical Intent Annotation
- Title(参考訳): Intent Matters: 微粒なペダゴジカルインテントアノテーションによるAIチューニングの強化
- Authors: Kseniia Petukhova, Ekaterina Kochmar,
- Abstract要約: 教師意図の微粒化アノテーションにより,LLM生成学習の質が向上することを示す。
本研究では,数学教育のためのダイアログ・データセットであるMathDialに着目し,自動アノテーション・フレームワークを用いてデータセットの一部を注釈付けする。
次に、これらのアノテーションを使用してLPMを微調整し、その性能を元の4つの分類体系に基づいて訓練されたモデルと比較する。
- 参考スコア(独自算出の注目度): 5.016171607846873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) hold great promise for educational applications, particularly in intelligent tutoring systems. However, effective tutoring requires alignment with pedagogical strategies - something current LLMs lack without task-specific adaptation. In this work, we explore whether fine-grained annotation of teacher intents can improve the quality of LLM-generated tutoring responses. We focus on MathDial, a dialog dataset for math instruction, and apply an automated annotation framework to re-annotate a portion of the dataset using a detailed taxonomy of eleven pedagogical intents. We then fine-tune an LLM using these new annotations and compare its performance to models trained on the original four-category taxonomy. Both automatic and qualitative evaluations show that the fine-grained model produces more pedagogically aligned and effective responses. Our findings highlight the value of intent specificity for controlled text generation in educational settings, and we release our annotated data and code to facilitate further research.
- Abstract(参考訳): 大規模言語モデル(LLM)は、特にインテリジェントなチューリングシステムにおいて、教育的応用に大きな期待を抱いている。
しかしながら、効果的なチュータリングには、教育戦略(現在のLLMにはタスク固有の適応がないもの)との整合性が必要です。
本研究では,教師意図の微粒なアノテーションがLLM生成学習の質を向上させるかどうかを考察する。
本研究では、数学教育のためのダイアログデータセットであるMathDialに着目し、11の教育意図の詳細な分類法を用いて、データセットの一部を注釈付けするための自動アノテーションフレームワークを適用した。
次に、これらのアノテーションを使用してLPMを微調整し、その性能を元の4つの分類体系に基づいて訓練されたモデルと比較する。
自動的および定性的な評価は、きめ細かいモデルがより教育的に整合し、効果的な応答を生み出すことを示している。
本研究は,制御されたテキスト生成における意図的特異性の価値を明らかにすることを目的として,注釈付きデータとコードをリリースし,さらなる研究を促進することを目的とした。
関連論文リスト
- Can Large Language Models Match Tutoring System Adaptivity? A Benchmarking Study [0.0]
大規模言語モデル(LLM)は動的命令補助として約束を守る。
しかし、LLMが知的チューリングシステム(ITS)の適応性を再現できるかどうかは不明である。
論文 参考訳(メタデータ) (2025-04-07T23:57:32Z) - MathTutorBench: A Benchmark for Measuring Open-ended Pedagogical Capabilities of LLM Tutors [76.1634959528817]
我々は、総合的なチューリングモデル評価のためのオープンソースのベンチマークであるMathTutorBenchを紹介する。
MathTutorBenchには、ダイアログベースの教育における科学の研究によって定義された、家庭教師の能力をカバーするデータセットとメトリクスが含まれている。
閉鎖的およびオープンウェイトなモデルの幅広いセットを評価し、問題解決能力によって示される課題の専門知識が、すぐには良い教育に変換されないことを発見した。
論文 参考訳(メタデータ) (2025-02-26T08:43:47Z) - Aligning Teacher with Student Preferences for Tailored Training Data Generation [40.85451525264779]
StudenT PreferencEs を用いた Aligning TeacheR という ARTE を提案する。
具体的には,教師モデルから質問文と合理性を抽出し,これらの質問文と合理性に関する学生の嗜好を収集する。
最後に,教師モデルと協調する第1ステップを繰り返すことで,対象課題における生徒モデルに適した訓練例を提示する。
論文 参考訳(メタデータ) (2024-06-27T14:51:17Z) - Learning to Reduce: Optimal Representations of Structured Data in
Prompting Large Language Models [42.16047343029512]
大規模言語モデル(LLM)は汎用AIエージェントとして広く利用されている。
本稿では,入力コンテキストの縮小バージョンを生成するために,言語モデルを微調整するフレームワークであるLearning to Reduceを提案する。
入力コンテキストから関連する証拠を選択する際に,本モデルが同等の精度を達成することを示す。
論文 参考訳(メタデータ) (2024-02-22T00:41:23Z) - CoAnnotating: Uncertainty-Guided Work Allocation between Human and Large
Language Models for Data Annotation [94.59630161324013]
本稿では,非構造化テキストの大規模共同アノテーションのための新しいパラダイムであるCoAnnotatingを提案する。
我々の実証研究は、CoAnnotatingが、異なるデータセット上の結果から作業を割り当てる効果的な手段であることを示し、ランダムベースラインよりも最大21%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-10-24T08:56:49Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Assisted Text Annotation Using Active Learning to Achieve High Quality
with Little Effort [9.379650501033465]
研究者は、手動の注釈だけで、大規模で高品質な注釈付きデータセットを作成できるツールを提案する。
我々は、アクティブラーニング(AL)アプローチと事前訓練された言語モデルを組み合わせて、アノテーションカテゴリを半自動で識別する。
予備的な結果から,ALを用いることで,複雑なフレームや微妙なフレームを正しく分類するアノテーションの数が大幅に削減されることがわかった。
論文 参考訳(メタデータ) (2021-12-15T13:14:58Z) - Prompt-Learning for Fine-Grained Entity Typing [40.983849729537795]
完全教師付き,少数ショット,ゼロショットシナリオにおける微粒化エンティティタイピングに対するプロンプトラーニングの適用について検討する。
本稿では,エンティティタイプの情報を自動的に要約するために,プロンプトラーニングにおける分布レベルの最適化を行う自己教師型戦略を提案する。
論文 参考訳(メタデータ) (2021-08-24T09:39:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。