論文の概要: From Zero to Hero: Examining the Power of Symbolic Tasks in Instruction
Tuning
- arxiv url: http://arxiv.org/abs/2304.07995v1
- Date: Mon, 17 Apr 2023 05:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:12:59.678926
- Title: From Zero to Hero: Examining the Power of Symbolic Tasks in Instruction
Tuning
- Title(参考訳): ゼロからヒーローへ:教示チューニングにおける記号的タスクのパワーを理解する
- Authors: Qian Liu, Fan Zhou, Zhengbao Jiang, Longxu Dou, Min Lin
- Abstract要約: 命令付きタスクの微調整言語モデルは、目に見えないタスクへのゼロショットの一般化を促進する可能性を示している。
シンボリックタスクを用いることで,命令のチューニングをシンプルかつ効果的に行う方法を提案する。
- 参考スコア(独自算出の注目度): 33.98287680876623
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fine-tuning language models on tasks with instructions has demonstrated
potential in facilitating zero-shot generalization to unseen tasks. In this
paper, we introduce a straightforward yet effective method for enhancing
instruction tuning by employing symbolic tasks. Compared to crowdsourced human
tasks or model-generated tasks, symbolic tasks present a unique advantage as
they can be easily generated in vast quantities, theoretically providing an
infinite supply of high-quality training instances. To explore the potential of
symbolic tasks, we carry out an extensive case study on the representative
symbolic task of SQL execution. Empirical results on various benchmarks
validate that the integration of SQL execution leads to significant
improvements in zero-shot scenarios, particularly in table reasoning. Notably,
our 3B model surpasses both the 175B GPT-3 and ChatGPT in zero-shot table
reasoning across four benchmarks. Furthermore, experimental results on BBH (27
tasks) and MMLU (57 tasks) reveal that language models can be enhanced through
symbolic tasks without compromising their generality. We hope that our paper
serves as a catalyst, inspiring increased efforts to incorporate symbolic tasks
in instruction tuning.
- Abstract(参考訳): 命令付きタスクの微調整言語モデルは、目に見えないタスクへのゼロショットの一般化を促進する可能性を示している。
本稿では,シンボリックタスクを用いて命令チューニングを簡易かつ効果的に行う手法を提案する。
クラウドソーシングされたヒューマンタスクやモデル生成タスクと比較して、シンボリックタスクは膨大な量の生成が容易であり、理論的には高品質なトレーニングインスタンスの無限の供給を提供するため、ユニークな利点を示す。
シンボリックタスクの可能性を探るために、sql実行における代表的シンボリックタスクに関する広範なケーススタディを実施します。
さまざまなベンチマークでの実証的な結果は、sql実行の統合がゼロショットシナリオ、特にテーブル推論に大きな改善をもたらすことを検証している。
特に、我々の3Bモデルは、4つのベンチマークでゼロショットテーブルで175B GPT-3とChatGPTを上回ります。
さらに,BBH (27タスク) とMMLU (57タスク) の実験結果から,一般性を損なうことなく,記号的タスクによって言語モデルを拡張できることが明らかになった。
私たちの論文が触媒となり、インストラクションチューニングにシンボリックタスクを組み込む努力が高まることを願っています。
関連論文リスト
- Investigating Symbolic Capabilities of Large Language Models [16.88906206735967]
本研究の目的は,一連の記号的タスクにおいて,LLM(Large Language Models)を厳格に評価することにより,ギャップを埋めることである。
我々の分析では、エンタープライズグレードの4つのモデルとオープンソースの4つのモデルを含む8つのLCMを含み、そのうち3つは数学的なタスクで事前訓練されている。
その結果,記号数で表される複雑性が増大するにつれて,LLMの文脈自由かつ文脈依存的な記号処理における性能が著しく低下することが明らかとなった。
論文 参考訳(メタデータ) (2024-05-21T21:24:34Z) - Language Models can Exploit Cross-Task In-context Learning for Data-Scarce Novel Tasks [22.66167973623777]
LLM(Large Language Models)は、ICL(In-context Learning)機能によってNLPを変換した。
本稿では,予め定義されたタスクのラベル付き例から新しいタスクまで,LLMが一般化できるかどうかを検討する。
LLaMA-2 7Bは107%, LLaMA-2 13Bは18.6%, GPT3.5は3.2%であった。
論文 参考訳(メタデータ) (2024-05-17T05:20:49Z) - Enabling Natural Zero-Shot Prompting on Encoder Models via Statement-Tuning [55.265138447400744]
ステートメントチューニングは、有限文の集合として識別タスクをモデル化し、エンコーダモデルを訓練し、潜在的なステートメントを識別してラベルを決定するテクニックである。
その結果, ステートメント・チューニングは, パラメータが著しく少ない最先端のLCMと比較して, 競争性能が向上することを示した。
この研究は、いくつかの設計選択が少ショットとゼロショットの一般化に与える影響を調査し、ステートメントチューニングが控えめなトレーニングデータで高いパフォーマンスを達成できることを明らかにした。
論文 参考訳(メタデータ) (2024-04-19T14:05:03Z) - Active Instruction Tuning: Improving Cross-Task Generalization by
Training on Prompt Sensitive Tasks [101.40633115037983]
インストラクションチューニング(IT)は,大規模言語モデル(LLM)を命令付き多種多様なタスクで訓練することにより,印象的なゼロショット一般化を実現する。
ITモデルの性能と一般化性を改善するために、新しいタスクをどのように選択するかは、未解決の問題である。
本稿では,情報的タスクを識別する新しいフレームワークである即時不確実性に基づくアクティブな指導チューニングを提案し,選択したタスク上でモデルをアクティブにチューニングする。
論文 参考訳(メタデータ) (2023-11-01T04:40:05Z) - What Makes Good In-context Demonstrations for Code Intelligence Tasks
with LLMs? [60.668318972782295]
大規模言語モデルは、文脈内学習(ICL)の能力を示している。
ICLはタスク命令といくつかの例をデモとして使用し、次に予測を行うために言語モデルにデモを入力します。
コードに関連するタスクに対して,優れたデモを構築する方法について,体系的に検討することが重要である。
論文 参考訳(メタデータ) (2023-04-15T15:13:58Z) - Task Aware Dreamer for Task Generalization in Reinforcement Learning [32.93706056123124]
一般的な世界モデルのトレーニングは、タスクにおいて同様の構造を活用でき、より一般化可能なエージェントのトレーニングに役立つことを示す。
本稿では,タスク間の遅延特性を識別するために,報酬インフォームド機能を統合するタスク・アウェア・ドリーマー (TAD) という新しい手法を提案する。
画像ベースのタスクと状態ベースのタスクの両方の実験は、TADが異なるタスクを同時に処理するパフォーマンスを大幅に改善できることを示している。
論文 参考訳(メタデータ) (2023-03-09T08:04:16Z) - Unsupervised Task Graph Generation from Instructional Video Transcripts [53.54435048879365]
本研究では,実世界の活動を行う指導ビデオのテキスト書き起こしを提供する環境について考察する。
目標は、これらの重要なステップ間の依存関係関係と同様に、タスクに関連する重要なステップを特定することです。
本稿では,命令調整言語モデルの推論能力とクラスタリングとランキングコンポーネントを組み合わせたタスクグラフ生成手法を提案する。
論文 参考訳(メタデータ) (2023-02-17T22:50:08Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - Coarse-to-Fine: Hierarchical Multi-task Learning for Natural Language
Understanding [51.31622274823167]
本稿では,各タスクの下位レベルを全タスクに共有し,中間レベルを異なるグループに分割し,上位レベルを各タスクに割り当てる,粗大なパラダイムを持つ階層型フレームワークを提案する。
これにより、すべてのタスクから基本言語特性を学習し、関連するタスクのパフォーマンスを高め、無関係なタスクから負の影響を減らすことができる。
論文 参考訳(メタデータ) (2022-08-19T02:46:20Z) - Analysis and Prediction of NLP Models Via Task Embeddings [25.311690222754454]
我々は101ドルのNLPタスクのコレクションであるMetaEvalを提案する。
学習した埋め込みを条件にしながら、単一のトランスフォーマーをすべてのMetaEvalタスクに共同で適合させます。
結果として生じるタスクの埋め込みは、タスクの空間の新たな分析を可能にする。
論文 参考訳(メタデータ) (2021-12-10T16:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。