論文の概要: Differentiable Instruction Optimization for Cross-Task Generalization
- arxiv url: http://arxiv.org/abs/2306.10098v1
- Date: Fri, 16 Jun 2023 17:49:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 00:13:43.600872
- Title: Differentiable Instruction Optimization for Cross-Task Generalization
- Title(参考訳): クロスタスク一般化のための微分インストラクション最適化
- Authors: Masaru Isonuma, Junichiro Mori, Ichiro Sakata
- Abstract要約: 学習可能な命令を導入し、二段階最適化を利用して勾配勾配で最適化する。
実験の結果,学習した命令は命令の多様性を高め,一般化能力を向上させることがわかった。
- 参考スコア(独自算出の注目度): 7.8120734120667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instruction tuning has been attracting much attention to achieve
generalization ability across a wide variety of tasks. Although various types
of instructions have been manually created for instruction tuning, it is still
unclear what kind of instruction is optimal to obtain cross-task generalization
ability. This work presents instruction optimization, which optimizes training
instructions with respect to generalization ability. Rather than manually
tuning instructions, we introduce learnable instructions and optimize them with
gradient descent by leveraging bilevel optimization. Experimental results show
that the learned instruction enhances the diversity of instructions and
improves the generalization ability compared to using only manually created
instructions.
- Abstract(参考訳): インストラクションチューニングは様々なタスクにまたがる一般化能力を達成するために多くの注目を集めている。
様々な命令が手動で作成されているが、クロスタスクの一般化能力を得るのにどのような命令が最適かはいまだ不明である。
本研究は、一般化能力に関するトレーニング命令を最適化する命令最適化を提案する。
命令を手動でチューニングする代わりに,学習可能な命令を導入し,二段階最適化を用いて勾配降下を最適化する。
実験の結果、学習した命令は命令の多様性を高め、手作りの命令のみを使うよりも一般化能力を向上させることがわかった。
関連論文リスト
- Instruction Matters, a Simple yet Effective Task Selection Approach in Instruction Tuning for Specific Tasks [51.15473776489712]
そこで本研究では,インストラクション情報を利用したテクティタロンにより,インストラクションチューニングにおける関連するタスクの識別が可能となることを示す。
メタデータセットのユニークな命令テンプレートスタイルを学習することにより,タスク選択精度の向上を観察する。
実験結果から,命令のみに基づいて選択されたタスクセットのトレーニングによって,大幅なパフォーマンス向上が得られた。
論文 参考訳(メタデータ) (2024-04-25T08:49:47Z) - Contrastive Instruction Tuning [66.6226795160117]
本稿では,意味論的に等価な命令-インスタンスペアの隠れ表現の類似性を最大化するコントラスト的命令チューニングを提案する。
PromptBenchベンチマークの実験によると、CoINはLLMの頑健さを一貫して改善し、文字、単語、文、意味のレベルを平均して2.5%の精度で変化させる。
論文 参考訳(メタデータ) (2024-02-17T00:09:32Z) - Instruction Diversity Drives Generalization To Unseen Tasks [1.9059113568275998]
一般化は、タスク毎に非常に少数の例が提供されているにもかかわらず、一度に十分なタスクセットが提供されると現れる。
一般化は、タスク毎に非常に少数の例が提供されているにもかかわらず、一度に十分なタスクセットが提供されると現れる。
論文 参考訳(メタデータ) (2024-02-16T18:47:21Z) - NICE: To Optimize In-Context Examples or Not? [10.458898402283628]
本稿では,タスク固有の指示が提供される際に,文脈内例(ICE)を最適化する必要性について検討する。
命令がより詳細になるにつれて、ICE最適化のリターンは減少することがわかった。
本研究では,与えられた命令からタスクの学習可能性を定量化する,正規化不変例選択基準(NICE)を提案する。
論文 参考訳(メタデータ) (2024-02-09T19:09:19Z) - Instructive Decoding: Instruction-Tuned Large Language Models are
Self-Refiner from Noisy Instructions [26.192531184689763]
本稿では,インストラクティブ・デコーディング(Instructive Decoding, ID)を提案する。
IDは、元の命令の操作されたバージョンから生成された予測を利用して、逆方向の予測のためにロジットを調整する。
ランダムな単語を介して意味的ノイズを挿入するものから、逸脱した応答を誘発する「オポジット」のような他のものまで、このようなノイズの多い命令のスペクトルにわたって実験を行う。
論文 参考訳(メタデータ) (2023-11-01T02:31:35Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - Instruction-following Evaluation through Verbalizer Manipulation [64.73188776428799]
本稿では,動詞操作と呼ばれる新しい指示追従評価プロトコルを提案する。
モデルにタスクラベルを、異なる範囲のモデル先行と整合した単語で言語化するように指示する。
異なる家族や規模にわたるモデルの指示追従能力は、より自然な話し手の性能によって著しく異なることが観察された。
論文 参考訳(メタデータ) (2023-07-20T03:54:24Z) - Evaluating the Zero-shot Robustness of Instruction-tuned Language Models [23.488398944358643]
新規な(観測されていない)が適切な命令表現を用いることで、モデル性能は一貫して低下することがわかった。
本稿では,ソフトプロンプトの埋め込みパラメータを導入することで,この問題を軽減するための簡単な手法を提案する。
本手法は命令調整モデルのロバスト性を常に改善することを示す。
論文 参考訳(メタデータ) (2023-06-20T03:48:51Z) - Counterfactual Cycle-Consistent Learning for Instruction Following and
Generation in Vision-Language Navigation [172.15808300686584]
本稿では,2つのタスクを同時に学習し,それぞれのトレーニングを促進するために本質的な相関性を利用するアプローチについて述べる。
提案手法は,様々な追従モデルの性能を改善し,正確なナビゲーション命令を生成する。
論文 参考訳(メタデータ) (2022-03-30T18:15:26Z) - Reverse engineering learned optimizers reveals known and novel
mechanisms [50.50540910474342]
学習は最適化問題を解決するために自らを訓練できるアルゴリズムである。
実験の結果は,学習の動作方法に関するそれまでの曖昧な理解を解明し,今後の学習を解釈するためのツールを確立するのに役立つ。
論文 参考訳(メタデータ) (2020-11-04T07:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。