論文の概要: XB-MAML: Learning Expandable Basis Parameters for Effective
Meta-Learning with Wide Task Coverage
- arxiv url: http://arxiv.org/abs/2403.06768v1
- Date: Mon, 11 Mar 2024 14:37:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 18:42:59.136276
- Title: XB-MAML: Learning Expandable Basis Parameters for Effective
Meta-Learning with Wide Task Coverage
- Title(参考訳): XB-MAML:広いタスクカバレッジを持つ効果的なメタラーニングのための拡張可能な基底パラメータの学習
- Authors: Jae-Jun Lee, Sung Whan Yoon
- Abstract要約: 本稿では,拡張可能な基底パラメータを学習するXB-MAMLを紹介する。
XB-MAMLは、基底によって広がるベクトル空間と微調整されたパラメータとの相違を観察し、基底を拡張するかどうかを決定する。
- 参考スコア(独自算出の注目度): 12.38102349597265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning, which pursues an effective initialization model, has emerged
as a promising approach to handling unseen tasks. However, a limitation remains
to be evident when a meta-learner tries to encompass a wide range of task
distribution, e.g., learning across distinctive datasets or domains. Recently,
a group of works has attempted to employ multiple model initializations to
cover widely-ranging tasks, but they are limited in adaptively expanding
initializations. We introduce XB-MAML, which learns expandable basis
parameters, where they are linearly combined to form an effective
initialization to a given task. XB-MAML observes the discrepancy between the
vector space spanned by the basis and fine-tuned parameters to decide whether
to expand the basis. Our method surpasses the existing works in the
multi-domain meta-learning benchmarks and opens up new chances of meta-learning
for obtaining the diverse inductive bias that can be combined to stretch toward
the effective initialization for diverse unseen tasks.
- Abstract(参考訳): 効果的な初期化モデルを追求するメタラーニングは、目に見えないタスクを扱うための有望なアプローチとして浮上した。
しかし、メタリーナーがさまざまなタスク分散(例えば、識別されたデータセットやドメインを学習するなど)を包含しようとすると、制限が明確になる。
近年,複数のモデル初期化を用いて広範囲なタスクをカバーしようとする研究が試みられているが,適応的に初期化が拡張されることは限られている。
本稿では,拡張可能な基底パラメータを学習するXB-MAMLを紹介する。
xb-mamlは基底にまたがるベクトル空間と微調整パラメータとのずれを観察し、基底を拡大するかどうかを決定する。
提案手法は,マルチドメインメタラーニングベンチマークにおける既存の成果を超越し,多種多様な帰納的バイアスを得るためのメタラーニングの新たな可能性を開く。
関連論文リスト
- Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Improving Meta-learning for Low-resource Text Classification and
Generation via Memory Imitation [87.98063273826702]
本稿では,メモリ模倣メタラーニング(MemIML)手法を提案する。
本手法の有効性を証明するために理論的解析を行った。
論文 参考訳(メタデータ) (2022-03-22T12:41:55Z) - ST-MAML: A Stochastic-Task based Method for Task-Heterogeneous
Meta-Learning [12.215288736524268]
本稿では,モデルに依存しないメタラーニング(MAML)を複数のタスク分布から学習するための新しい手法ST-MAMLを提案する。
そこで本研究では,ST-MAMLが2つの画像分類タスク,1つの曲線評価ベンチマーク,1つの画像補完問題,および実世界の温度予測アプリケーションにおいて,最先端の映像分類タスクに適合または優れることを示す。
論文 参考訳(メタデータ) (2021-09-27T18:54:50Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Large-Scale Meta-Learning with Continual Trajectory Shifting [76.29017270864308]
メタリアナーがより多くの内部勾配ステップをとれるようにすることで、ヘテロジニアスタスクや大規模タスクの構造をよりよく把握できることを示す。
メタ更新の頻度を増やすために、タスク固有のパラメータの必要なシフトを推定することを提案する。
このアルゴリズムは, 一般化性能と収束性の両方において, 先行する一階メタ学習法を大きく上回っていることを示す。
論文 参考訳(メタデータ) (2021-02-14T18:36:33Z) - A Nested Bi-level Optimization Framework for Robust Few Shot Learning [10.147225934340877]
NestedMAMLはトレーニングタスクやインスタンスに重みを割り当てることを学ぶ。
合成および実世界のデータセットの実験では、NestedMAMLは「不要な」タスクやインスタンスの効果を効率的に緩和している。
論文 参考訳(メタデータ) (2020-11-13T06:41:22Z) - La-MAML: Look-ahead Meta Learning for Continual Learning [14.405620521842621]
オンライン連続学習のための高速最適化に基づくメタ学習アルゴリズムであるLook-ahead MAML(La-MAML)を提案する。
La-MAMLは他のリプレイベース、事前ベース、メタラーニングベースアプローチよりも優れたパフォーマンスを実現し、実世界の視覚分類ベンチマークで連続学習を行う。
論文 参考訳(メタデータ) (2020-07-27T23:07:01Z) - Improving Generalization in Meta-learning via Task Augmentation [69.83677015207527]
本稿ではMetaMixとChannel Shuffleの2つのタスク拡張手法を提案する。
MetaMixとChannel Shuffleはどちらも、多くのデータセットにまたがる大きなマージンによって、最先端の結果を上回っている。
論文 参考訳(メタデータ) (2020-07-26T01:50:42Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z) - Structured Prediction for Conditional Meta-Learning [44.30857707980074]
構造化予測を用いた条件付きメタラーニングの新しい視点を提案する。
タスク適応型構造化メタラーニング(TASML: Task-Adaptive Structured Meta-learning)は,タスク固有目的関数を生成する基本的フレームワークである。
実験により,TASMLは既存のメタラーニングモデルの性能を向上し,ベンチマークデータセットの最先端性を上回った。
論文 参考訳(メタデータ) (2020-02-20T15:24:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。