論文の概要: Large Language Models are In-context Teachers for Knowledge Reasoning
- arxiv url: http://arxiv.org/abs/2311.06985v2
- Date: Mon, 17 Jun 2024 05:57:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 11:31:28.952906
- Title: Large Language Models are In-context Teachers for Knowledge Reasoning
- Title(参考訳): 大規模言語モデルは知識推論のための文脈内教師である
- Authors: Jiachen Zhao, Zonghai Yao, Zhichao Yang, Hong Yu,
- Abstract要約: CoT(Chain-of- Thought)プロンプトは、単に情報検索以上の情報を必要とするクエリを推論するために、コンテキストにおいて大きな言語モデル(LLM)を教える。
本研究は,LLMが知識推論に有効であるかどうかを考察する。
- 参考スコア(独自算出の注目度): 8.869111204842248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chain-of-thought (CoT) prompting teaches large language models (LLMs) in context to reason over queries that require more than mere information retrieval. However, human experts are usually required to craft demonstrations for in-context learning (ICL), which is expensive and has high variance. More importantly, how to craft helpful reasoning exemplars for ICL remains unclear. In this work, we investigate whether LLMs can be better in-context teachers for knowledge reasoning. We follow the ``encoding specificity'' hypothesis in human's memory retrieval to assume in-context exemplars at inference should match the encoding context in training data. We are thus motivated to propose Self-Explain to use one LLM's self-elicited explanations as in-context demonstrations for prompting it as they are generalized from the model's training examples. Self-Explain is shown to significantly outperform using human-crafted exemplars and other baselines. We further reveal that for in-context teaching, rationales by distinct teacher LLMs or human experts that more resemble the student LLM's self-explanations are better demonstrations, which supports our encoding specificity hypothesis. We then propose Teach-Back that aligns the teacher LLM with the student to enhance the in-context teaching performance. For example, Teach-Back enables a 7B model to teach the much larger GPT-3.5 in context, surpassing human teachers by around 5% in test accuracy on medical question answering.
- Abstract(参考訳): CoT(Chain-of- Thought)プロンプトは、単に情報検索以上の情報を必要とするクエリを推論するために、コンテキストにおいて大きな言語モデル(LLM)を教える。
しかし、人間の専門家は通常、高コストでばらつきが高いインコンテキスト学習(ICL)のデモンストレーションを作成する必要がある。
さらに重要なことは、ICLの有用な推論例を作る方法が明確でないことである。
本研究は,LLMが知識推論に有効であるかどうかを考察する。
我々は、人間の記憶検索における「エンコード特異性」仮説に従い、推論におけるインコンテキストの例は、トレーニングデータのエンコーディングコンテキストと一致するべきであると仮定する。
そこで本研究では, LLM の自己記述的説明を実例から一般化する上で, 自己記述的説明を文脈内説明として用いることを提案する。
自己説明は、人造の模範やその他のベースラインを用いて、著しく優れていた。
さらに、文脈内教育において、LLMの自己説明とより類似した、異なる教師のLLMや人間の専門家による合理性は、私たちの符号化特異性仮説を支持する、より良い実証であることを明らかにした。
そこで,本研究では,教師のLLMを学生に合わせるTeach-Backを提案する。
例えば Teach-Back は 7B モデルで,より大きな GPT-3.5 をコンテキストで教えることができる。
関連論文リスト
- Aligning Teacher with Student Preferences for Tailored Training Data Generation [40.85451525264779]
StudenT PreferencEs を用いた Aligning TeacheR という ARTE を提案する。
具体的には,教師モデルから質問文と合理性を抽出し,これらの質問文と合理性に関する学生の嗜好を収集する。
最後に,教師モデルと協調する第1ステップを繰り返すことで,対象課題における生徒モデルに適した訓練例を提示する。
論文 参考訳(メタデータ) (2024-06-27T14:51:17Z) - Toward In-Context Teaching: Adapting Examples to Students' Misconceptions [54.82965010592045]
本稿ではAdapTと呼ばれる一連のモデルと評価手法を紹介する。
AToMは、学生の過去の信念を共同で推論し、将来の信念の正しさを最適化する適応教育の新しい確率論的モデルである。
本研究は,適応型学習課題の難しさと,それを解決するための学習適応モデルの可能性を両立させるものである。
論文 参考訳(メタデータ) (2024-05-07T17:05:27Z) - TinyLLM: Learning a Small Student from Multiple Large Language Models [23.736611338497244]
TinyLLMは、複数の大規模LLMから小学生のLLMを学ぶための新しい知識蒸留パラダイムである。
そこで本研究では,文脈的に適切なシナリオにおいて,理科が正確で基礎が整っていることを保証するために,文脈内サンプル生成と教師強制型Chain-of-Thought戦略を導入する。
論文 参考訳(メタデータ) (2024-02-07T06:48:24Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Can Language Models Teach Weaker Agents? Teacher Explanations Improve
Students via Personalization [84.86241161706911]
教師のLLMは、実際に生徒の推論に介入し、パフォーマンスを向上させることができることを示す。
また,マルチターンインタラクションでは,教師による説明が一般化され,説明データから学習されることを示す。
教師のミスアライメントが学生の成績をランダムな確率に低下させることを、意図的に誤解させることで検証する。
論文 参考訳(メタデータ) (2023-06-15T17:27:20Z) - One Teacher is Enough? Pre-trained Language Model Distillation from
Multiple Teachers [54.146208195806636]
本稿では,事前学習型言語モデル圧縮のためのMT-BERTという多言語知識蒸留フレームワークを提案する。
MT-BERTは、複数の教師PLMから高品質な学生モデルを訓練できることを示す。
PLMの圧縮におけるMT-BERTの有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2021-06-02T08:42:33Z) - Iterative Machine Teaching without Teachers [12.239246363539634]
既存の反復型機械教育の研究は、すべての指導例の真の答えを知っている教師がいると仮定している。
本研究では,そのような教師が存在しない教師なしの事例について考察する。
生徒は各イテレーションで指導例を与えられるが、対応するラベルが正しいかどうか保証はない。
論文 参考訳(メタデータ) (2020-06-27T11:21:57Z) - Role-Wise Data Augmentation for Knowledge Distillation [48.115719640111394]
知識蒸留(KD)は、ある機械学習モデルから学んだ知識を別の機械学習モデルに転送する一般的な方法である。
我々は、知識蒸留を促進するために、異なる役割を持つデータ増強剤を設計する。
特別に調整されたデータポイントが、教師の知識をより効果的に生徒に示せることを実証的に見出した。
論文 参考訳(メタデータ) (2020-04-19T14:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。