論文の概要: Meta-in-context learning in large language models
- arxiv url: http://arxiv.org/abs/2305.12907v1
- Date: Mon, 22 May 2023 10:40:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 16:40:05.504127
- Title: Meta-in-context learning in large language models
- Title(参考訳): 大規模言語モデルにおけるメタインコンテキスト学習
- Authors: Julian Coda-Forno, Marcel Binz, Zeynep Akata, Matthew Botvinick, Jane
X. Wang, Eric Schulz
- Abstract要約: インコンテキストラーニング(In-context learning) — 多数のデモが提供された後にタスクで改善する能力 — は、彼らの成功の主要な貢献者のひとつだと見なされている。
私たちはこの現象をメタ・イン・コンテクスト・ラーニング(meta-in-context learning)と呼ぶ。
メタ・イン・コンテクスト学習は,期待されたタスクに対する大きな言語モデルの先行性を適応的に再認識することを示す。
- 参考スコア(独自算出の注目度): 38.28912796214566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models have shown tremendous performance in a variety of
tasks. In-context learning -- the ability to improve at a task after being
provided with a number of demonstrations -- is seen as one of the main
contributors to their success. In the present paper, we demonstrate that the
in-context learning abilities of large language models can be recursively
improved via in-context learning itself. We coin this phenomenon
meta-in-context learning. Looking at two idealized domains, a one-dimensional
regression task and a two-armed bandit task, we show that meta-in-context
learning adaptively reshapes a large language model's priors over expected
tasks. Furthermore, we find that meta-in-context learning modifies the
in-context learning strategies of such models. Finally, we extend our approach
to a benchmark of real-world regression problems where we observe competitive
performance to traditional learning algorithms. Taken together, our work
improves our understanding of in-context learning and paves the way toward
adapting large language models to the environment they are applied purely
through meta-in-context learning rather than traditional finetuning.
- Abstract(参考訳): 大規模言語モデルは様々なタスクで素晴らしいパフォーマンスを示している。
インコンテキスト学習(in-context learning) -- 多数のデモが提供された後、タスクで改善する能力 -- は、その成功への主要な貢献者の1つと見なされている。
本稿では,大規模言語モデルの文脈内学習能力が,文脈内学習自体を通じて再帰的に向上できることを実証する。
この現象をメタ・イン・コンテクスト学習と呼ぶ。
1次元回帰タスクと2次元バンディットタスクという2つの理想化されたドメインを見ると、メタインコンテキスト学習は、期待されるタスクよりも大きな言語モデルの優先順位を適応的に再構成することを示している。
さらに、メタインコンテキスト学習は、そのようなモデルのコンテキスト内学習戦略を変化させることを見出した。
最後に,本手法を実世界の回帰問題のベンチマークに拡張し,従来の学習アルゴリズムの競合性能を観察した。
総合すると、私たちの研究は、コンテキスト内学習の理解を深め、従来の微調整ではなく、メタインコンテキスト学習を通じて適用される環境に、大規模な言語モデルを適用する道を開くのです。
関連論文リスト
- Scalable Language Model with Generalized Continual Learning [58.700439919096155]
The Joint Adaptive Re-ization (JARe) is integrated with Dynamic Task-related Knowledge Retrieval (DTKR) to enable adapt adjust of language model based on specific downstream task。
提案手法は,様々なバックボーンやベンチマーク上での最先端性能を実証し,最小限の忘れを伴い,フルセットおよび少数ショットのシナリオにおいて効果的な連続学習を実現する。
論文 参考訳(メタデータ) (2024-04-11T04:22:15Z) - Fine-Tune Language Models as Multi-Modal Differential Equation Solvers [14.181842691371935]
本稿では,コンテキスト内演算子の学習をマルチモーダルパラダイムに変換する。
特に,近年の大規模言語モデルの成功からインスピレーションを得て,演算子に関する人間の知識を統合するために「カプセル」の使用を提案する。
論文 参考訳(メタデータ) (2023-08-09T16:44:25Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - The Learnability of In-Context Learning [16.182561312622315]
そこで本研究では,文脈内学習のための初歩的なPACベースのフレームワークを提案する。
本フレームワークは,事前学習に適合する初期事前学習フェーズを含む。
文脈内学習は、タスクを学習することよりも、タスクを特定することにあることを示す。
論文 参考訳(メタデータ) (2023-03-14T13:28:39Z) - In-context Learning Distillation: Transferring Few-shot Learning Ability
of Pre-trained Language Models [55.78264509270503]
そこで本研究では,大規模モデルから小型モデルへ,文脈内数ショット学習能力を移行するために,文脈内学習蒸留を導入する。
メタ・イン・コンテクスト・タニング(Meta-ICT)とマルチタスク・イン・コンテクスト・タニング(Multitask-ICT)の2つの異なる学習パラダイムの下で、イン・コンテクスト・ラーニング・蒸留を行う。
実験と分析により,マルチタスクICTパラダイムの下で,文脈内学習の目的と言語モデリングの目的が相補的であることが明らかとなった。
論文 参考訳(メタデータ) (2022-12-20T22:11:35Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - Revisiting Meta-Learning as Supervised Learning [69.2067288158133]
メタラーニングと従来の教師付き学習の関連性を再考し,強化することで,原則的,統一的なフレームワークの提供を目指す。
タスク固有のデータセットとターゲットモデルを(機能、ラベル)サンプルとして扱うことで、多くのメタ学習アルゴリズムを教師付き学習のインスタンスに還元することができる。
この視点は、メタラーニングを直感的で実践的なフレームワークに統一するだけでなく、教師付き学習から直接洞察を伝達してメタラーニングを改善することができる。
論文 参考訳(メタデータ) (2020-02-03T06:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。