論文の概要: Large Language Models are In-context Teachers for Knowledge Reasoning
- arxiv url: http://arxiv.org/abs/2311.06985v3
- Date: Fri, 04 Oct 2024 05:00:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-07 15:07:19.301495
- Title: Large Language Models are In-context Teachers for Knowledge Reasoning
- Title(参考訳): 大規模言語モデルは知識推論のための文脈内教師である
- Authors: Jiachen Zhao, Zonghai Yao, Zhichao Yang, Hong Yu,
- Abstract要約: 本研究では,教師が無意味な事例の推論を学生に教えるため,インコンテクスト教育(ICT)について検討する。
我々は,大規模言語モデル (LLM) が,人間と比較して,自己や他のLLMに対して,より効果的なテキスト内教師として機能するかどうかを問う。
- 参考スコア(独自算出の注目度): 8.869111204842248
- License:
- Abstract: In this work, we study in-context teaching (ICT), where a teacher provides in-context example rationales to teach a student to reason over unseen cases. Human teachers are usually required to craft in-context demonstrations, which are costly and have high variance. We ask whether a large language model (LLM) can serve as a more effective in-context teacher for itself or other LLMs, compared to humans. Inspired by the Encoding Specificity Hypothesis from human episodic memory, we hypothesize that in-context exemplars crafted by the teacher should match the training data of the student. This hypothesis motivates us to propose Self-Explain where an LLM's self-elicited explanations are used as in-context demonstrations for prompting it as they are generalized from the model's training examples. Self-Explain is shown to significantly outperform using human-crafted exemplars and other baselines. Furthermore, we reveal that for ICT, rationales from different teacher LLMs or human experts that more resemble the student LLM's self-explanations are better in-context demonstrations. This supports our encoding specificity hypothesis. We then propose Teach-Back that aligns a teacher LLM with the student to enhance the ICT performance. For example, Teach-Back enables a 7B model to teach the much larger GPT-3.5 in context, surpassing human teachers by around 5% in test accuracy on medical question answering.
- Abstract(参考訳): そこで,本研究では,教師が学習者に対して,見知らぬ事例を理屈に説明するための実例を提示するICT(In-context teaching)について検討する。
人間の教師は、通常、コストが高く、ばらつきが高い、コンテキスト内デモを作る必要がある。
我々は,大規模言語モデル (LLM) が,人間と比較して,自己や他のLLMに対して,より効果的なテキスト内教師として機能するかどうかを問う。
人間のエピソード記憶からエンコード特異性仮説にインスピレーションを得て,教師が作成したインコンテクストの例は,学生のトレーニングデータと一致すべきである,という仮説を立てた。
この仮説は、LLMの自己記述的説明が、モデルのトレーニング例から一般化されるように、インコンテキストのデモンストレーションとして使用されるセルフ説明の提案を動機付けます。
自己説明は、人造の模範やその他のベースラインを用いて、著しく優れていた。
さらに,ICT においては,学習者の LLM の自己説明とより類似した,異なる教師の LLM や人間の専門家による理性は,文脈内でのより優れた実演であることを明らかにした。
これは符号化特異性仮説を支持します。
次に,教員のLLMと学生のICT能力を高めるためのTeach-Backを提案する。
例えば Teach-Back は 7B モデルで,より大きな GPT-3.5 をコンテキストで教えることができる。
関連論文リスト
- Aligning Teacher with Student Preferences for Tailored Training Data Generation [40.85451525264779]
StudenT PreferencEs を用いた Aligning TeacheR という ARTE を提案する。
具体的には,教師モデルから質問文と合理性を抽出し,これらの質問文と合理性に関する学生の嗜好を収集する。
最後に,教師モデルと協調する第1ステップを繰り返すことで,対象課題における生徒モデルに適した訓練例を提示する。
論文 参考訳(メタデータ) (2024-06-27T14:51:17Z) - Toward In-Context Teaching: Adapting Examples to Students' Misconceptions [54.82965010592045]
本稿ではAdapTと呼ばれる一連のモデルと評価手法を紹介する。
AToMは、学生の過去の信念を共同で推論し、将来の信念の正しさを最適化する適応教育の新しい確率論的モデルである。
本研究は,適応型学習課題の難しさと,それを解決するための学習適応モデルの可能性を両立させるものである。
論文 参考訳(メタデータ) (2024-05-07T17:05:27Z) - TinyLLM: Learning a Small Student from Multiple Large Language Models [23.736611338497244]
TinyLLMは、複数の大規模LLMから小学生のLLMを学ぶための新しい知識蒸留パラダイムである。
そこで本研究では,文脈的に適切なシナリオにおいて,理科が正確で基礎が整っていることを保証するために,文脈内サンプル生成と教師強制型Chain-of-Thought戦略を導入する。
論文 参考訳(メタデータ) (2024-02-07T06:48:24Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Can Language Models Teach Weaker Agents? Teacher Explanations Improve
Students via Personalization [84.86241161706911]
教師のLLMは、実際に生徒の推論に介入し、パフォーマンスを向上させることができることを示す。
また,マルチターンインタラクションでは,教師による説明が一般化され,説明データから学習されることを示す。
教師のミスアライメントが学生の成績をランダムな確率に低下させることを、意図的に誤解させることで検証する。
論文 参考訳(メタデータ) (2023-06-15T17:27:20Z) - One Teacher is Enough? Pre-trained Language Model Distillation from
Multiple Teachers [54.146208195806636]
本稿では,事前学習型言語モデル圧縮のためのMT-BERTという多言語知識蒸留フレームワークを提案する。
MT-BERTは、複数の教師PLMから高品質な学生モデルを訓練できることを示す。
PLMの圧縮におけるMT-BERTの有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2021-06-02T08:42:33Z) - Iterative Machine Teaching without Teachers [12.239246363539634]
既存の反復型機械教育の研究は、すべての指導例の真の答えを知っている教師がいると仮定している。
本研究では,そのような教師が存在しない教師なしの事例について考察する。
生徒は各イテレーションで指導例を与えられるが、対応するラベルが正しいかどうか保証はない。
論文 参考訳(メタデータ) (2020-06-27T11:21:57Z) - Role-Wise Data Augmentation for Knowledge Distillation [48.115719640111394]
知識蒸留(KD)は、ある機械学習モデルから学んだ知識を別の機械学習モデルに転送する一般的な方法である。
我々は、知識蒸留を促進するために、異なる役割を持つデータ増強剤を設計する。
特別に調整されたデータポイントが、教師の知識をより効果的に生徒に示せることを実証的に見出した。
論文 参考訳(メタデータ) (2020-04-19T14:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。