論文の概要: Can Language Models Teach Weaker Agents? Teacher Explanations Improve
Students via Personalization
- arxiv url: http://arxiv.org/abs/2306.09299v2
- Date: Tue, 14 Nov 2023 05:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 18:52:25.895284
- Title: Can Language Models Teach Weaker Agents? Teacher Explanations Improve
Students via Personalization
- Title(参考訳): 言語モデルは弱いエージェントに教えることができるか?
教師説明はパーソナライズを通して生徒を改善させる
- Authors: Swarnadeep Saha, Peter Hase, Mohit Bansal
- Abstract要約: 教師のLLMは、実際に生徒の推論に介入し、パフォーマンスを向上させることができることを示す。
また,マルチターンインタラクションでは,教師による説明が一般化され,説明データから学習されることを示す。
教師のミスアライメントが学生の成績をランダムな確率に低下させることを、意図的に誤解させることで検証する。
- 参考スコア(独自算出の注目度): 84.86241161706911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A hallmark property of explainable AI models is the ability to teach other
agents, communicating knowledge of how to perform a task. While Large Language
Models perform complex reasoning by generating explanations for their
predictions, it is unclear whether they also make good teachers for weaker
agents. To address this, we consider a student-teacher framework between two
LLM agents and study if, when, and how the teacher should intervene with
natural language explanations to improve the student's performance. Since
communication is expensive, we define a budget such that the teacher only
communicates explanations for a fraction of the data, after which the student
should perform well on its own. We decompose the teaching problem along four
axes: (1) if teacher's test time intervention improve student predictions, (2)
when it is worth explaining a data point, (3) how the teacher should
personalize explanations to better teach the student, and (4) if teacher
explanations also improve students on future unexplained data. We first show
that teacher LLMs can indeed intervene on student reasoning to improve their
performance. Next, inspired by the Theory of Mind abilities of effective
teachers, we propose building two few-shot mental models of the student. The
first model defines an Intervention Function that simulates the utility of an
intervention, allowing the teacher to intervene when this utility is the
highest and improving student performance at lower budgets. The second model
enables the teacher to personalize explanations for a particular student and
outperform unpersonalized teachers. We also demonstrate that in multi-turn
interactions, teacher explanations generalize and learning from explained data
improves student performance on future unexplained data. Finally, we verify
that misaligned teachers can lower student performance to random chance by
intentionally misleading them.
- Abstract(参考訳): 説明可能なaiモデルの特徴は、タスクの実行方法に関する知識を伝えながら、他のエージェントに教える能力である。
大規模言語モデルでは, 予測のための説明を生成することで複雑な推論を行うが, 弱いエージェントのための優れた教師も作っているかは定かではない。
そこで我々は,2人のLLMエージェント間の学習者・教師の枠組みを考察し,学生のパフォーマンスを向上させるために,教師が自然言語の説明にどう介入すべきか,いつ,どのように介入すべきかを考察する。
コミュニケーションは費用がかかるため、教師がデータの一部についてのみ説明を伝達するように予算を定め、その後、生徒は単独でうまく行動すべきである。
1)教師の試験時間介入が生徒の予測を改善する場合,(2)データポイントを説明する価値がある場合,(3)教師が説明をパーソナライズして生徒により良い指導を行う方法,(4)教師の解説が将来の説明されていないデータでも生徒を改善させる場合の4つの軸に沿って教師の指導問題を分解する。
まず,教師のLLMが生徒の推論に介入して成績を向上できることを示す。
次に,効果的な教師の心の能力理論に着想を得て,生徒の2つの数発精神モデルを構築することを提案する。
最初のモデルは、介入の効用をシミュレートするインターベンション関数を定義し、このユーティリティが最も高いときに教師が介入できるようにし、低予算での生徒のパフォーマンスを向上させる。
第2のモデルは、教師が特定の生徒の説明をパーソナライズし、個人化されていない教師より優れている。
また,マルチターンインタラクションにおいて,教師の説明が一般化し,説明データから学習することで,学生のパフォーマンスが向上することを示す。
最後に,教師のミスアライメントは,生徒の成績を故意に誤解し,ランダムな機会に低下させることを検証した。
関連論文リスト
- Representational Alignment Supports Effective Machine Teaching [81.19197059407121]
我々は,機械教育の知見と実践的なコミュニケーションを,表現的アライメントに関する文献と統合する。
教師の精度から表現的アライメントを遠ざける教師付き学習環境を設計する。
論文 参考訳(メタデータ) (2024-06-06T17:48:24Z) - Good Teachers Explain: Explanation-Enhanced Knowledge Distillation [52.498055901649025]
知識蒸留(KD)は、大規模な教師モデルをより小さな学生モデルに圧縮するのに有効であることが証明されている。
本研究は,古典的KD損失を最適化するだけでなく,教師と生徒が生み出す説明の類似性についても検討する。
シンプルで直感的なアイデアであるにもかかわらず、提案した「説明強調」KDは、精度と生徒と教師の合意の点で、一貫して大きな利益をもたらしている。
論文 参考訳(メタデータ) (2024-02-05T15:47:54Z) - Large Language Models are In-context Teachers for Knowledge Reasoning [8.869111204842248]
本研究では,教師が無意味な事例の推論を学生に教えるため,インコンテクスト教育(ICT)について検討する。
我々は,大規模言語モデル (LLM) が,人間と比較して,自己や他のLLMに対して,より効果的なテキスト内教師として機能するかどうかを問う。
論文 参考訳(メタデータ) (2023-11-12T23:14:43Z) - Improving Knowledge Distillation with Teacher's Explanation [14.935696904019146]
本稿では,KED(Knowledge Explaining Distillation)フレームワークを紹介する。
KEDは、教師の予測だけでなく、教師の説明からも学べるようにしている。
様々なデータセットに対する実験により,KEDの学生はKDの学生と同じような複雑さを著しく上回る結果が得られた。
論文 参考訳(メタデータ) (2023-10-04T04:18:01Z) - MathDial: A Dialogue Tutoring Dataset with Rich Pedagogical Properties
Grounded in Math Reasoning Problems [74.73881579517055]
そこで本稿では,一般学生の誤りを表現した大規模言語モデルを用いて,人間教師の対話を生成する枠組みを提案する。
このフレームワークを用いて3kの1対1の教師-学生対話のデータセットであるMathDialを収集する方法について述べる。
論文 参考訳(メタデータ) (2023-05-23T21:44:56Z) - Computationally Identifying Funneling and Focusing Questions in
Classroom Discourse [24.279653100481863]
本稿では,授業談話におけるファネリングと集中型質問を計算的に検出するタスクを提案する。
ファネリングと集中型質問にラベル付けされた2,348の教師発話の注釈付きデータセットをリリースする。
我々の最高のモデルである教師付きRoBERTaモデルは、データセットに微調整され、人間の専門家ラベルと.76の強い線形相関と、ポジティブな教育結果を持つ。
論文 参考訳(メタデータ) (2022-07-08T01:28:29Z) - Know Thy Student: Interactive Learning with Gaussian Processes [11.641731210416102]
そこで本研究では,ガウス過程を用いた簡単な診断アルゴリズムを提案する。
本研究は,教師が生徒に実演を行い,余分な軌跡の送出を避けるためのオフライン強化学習環境である。
本実験は,対話型教師の助けを借りて,学生がより効率的に学習できる方法を示す。
論文 参考訳(メタデータ) (2022-04-26T04:43:57Z) - Explainable Student Performance Prediction With Personalized Attention
for Explaining Why A Student Fails [0.5607676459156788]
パーソナライズド・アテンション(ESPA)を用いた新しい説明可能な学生パフォーマンス予測手法を提案する。
BiLSTMアーキテクチャは、特定のパターンで経路内の意味情報を抽出する。
ESPAは、学生のパフォーマンス予測のための他の最先端モデルよりも一貫して優れている。
論文 参考訳(メタデータ) (2021-10-15T08:45:43Z) - Iterative Teacher-Aware Learning [136.05341445369265]
人間の教育において、教師と学生はコミュニケーション効率を最大化するために適応的に交流することができる。
本稿では,教師の協調意図を可能性関数に組み込むことができる,勾配最適化に基づく教師認識学習者を提案する。
論文 参考訳(メタデータ) (2021-10-01T00:27:47Z) - Does Knowledge Distillation Really Work? [106.38447017262183]
知識蒸留は学生の一般化を改善することができるが、一般的に理解されているようには機能しない。
学生が教師に合わない理由として,最適化の難しさがあげられる。
論文 参考訳(メタデータ) (2021-06-10T17:44:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。