論文の概要: Hacking Task Confounder in Meta-Learning
- arxiv url: http://arxiv.org/abs/2312.05771v1
- Date: Sun, 10 Dec 2023 05:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 18:50:36.952575
- Title: Hacking Task Confounder in Meta-Learning
- Title(参考訳): メタラーニングにおけるタスク共同創設者のハッキング
- Authors: Jingyao Wang, Wenwen Qiang, Yi Ren, Zeen Song, Xingzhe Su, Changwen
Zheng
- Abstract要約: ひとつのバッチにより多くのタスクを追加すると、実際に一般化性能が低下することを示す。
本稿では,タスク共同創設者を排除したメタ学習因果学習表現(MetaCRL)を提案する。
- 参考スコア(独自算出の注目度): 19.053401556867993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning enables rapid generalization to new tasks by learning
meta-knowledge from a variety of tasks. It is intuitively assumed that the more
tasks a model learns in one training batch, the richer knowledge it acquires,
leading to better generalization performance. However, contrary to this
intuition, our experiments reveal an unexpected result: adding more tasks
within a single batch actually degrades the generalization performance. To
explain this unexpected phenomenon, we conduct a Structural Causal Model (SCM)
for causal analysis. Our investigation uncovers the presence of spurious
correlations between task-specific causal factors and labels in meta-learning.
Furthermore, the confounding factors differ across different batches. We refer
to these confounding factors as ``Task Confounders". Based on this insight, we
propose a plug-and-play Meta-learning Causal Representation Learner (MetaCRL)
to eliminate task confounders. It encodes decoupled causal factors from
multiple tasks and utilizes an invariant-based bi-level optimization mechanism
to ensure their causality for meta-learning. Extensive experiments on various
benchmark datasets demonstrate that our work achieves state-of-the-art (SOTA)
performance.
- Abstract(参考訳): メタ学習は、様々なタスクからメタ知識を学習することで、新しいタスクへの迅速な一般化を可能にする。
モデルが1つのトレーニングバッチで学習するタスクが多ければ多いほど、より豊かな知識が得られ、より一般化のパフォーマンスが向上すると直感的に仮定される。
しかし、この直感に反して、我々の実験は予期せぬ結果を示した: 1つのバッチにより多くのタスクを追加することは、実際に一般化性能を低下させる。
この予期せぬ現象を説明するために,構造因果モデル(scm)を用いて因果分析を行う。
本研究は,メタラーニングにおけるタスク固有の因果要因とラベルの相関関係を明らかにする。
さらに、結合因子は異なるバッチ間で異なる。
これらの要因を`Task Confounders'と呼んでいる。
この知見に基づいて,タスク共同創設者の排除を目的としたメタ学習因果表現学習システム(MetaCRL)を提案する。
複数のタスクから分離された因果因子をエンコードし、メタラーニングの因果性を保証するために不変ベースのバイレベル最適化機構を利用する。
様々なベンチマークデータセットに対する大規模な実験により、我々の研究がSOTA(State-of-the-art)のパフォーマンスを達成することを示す。
関連論文リスト
- Modeling Output-Level Task Relatedness in Multi-Task Learning with Feedback Mechanism [7.479892725446205]
マルチタスク学習(MTL)は、異なるレベルで情報を共有することで複数のタスクを同時に学習するパラダイムである。
異なるタスクが相互に影響のある相関出力を生成する可能性があることを考慮し、後続情報をモデルに導入する。
我々は,MTLモデルにフィードバック機構を組み込むことで,あるタスクの出力が他のタスクの隠れ機能として機能する。
論文 参考訳(メタデータ) (2024-04-01T03:27:34Z) - A Unified Causal View of Instruction Tuning [76.1000380429553]
メタ構造因果モデル(meta-SCM)を開発し、異なるNLPタスクをデータの単一因果構造の下で統合する。
主なアイデアは、タスク要求因果関係を学習し、タスクの予測にのみそれらを使用することである。
論文 参考訳(メタデータ) (2024-02-09T07:12:56Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Contrastive Knowledge-Augmented Meta-Learning for Few-Shot
Classification [28.38744876121834]
本稿では,知識向上のための新しいアプローチであるCAML(Contrastive Knowledge-Augmented Meta Learning)を紹介する。
そこで我々は,CAMLの性能を,様々な場面で評価した。
論文 参考訳(メタデータ) (2022-07-25T17:01:29Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - Distribution Matching for Heterogeneous Multi-Task Learning: a
Large-scale Face Study [75.42182503265056]
マルチタスク学習は、共有学習アルゴリズムによって複数のタスクを共同で学習する方法論として登場した。
我々は異種mtlに対処し,検出,分類,回帰問題を同時に解決する。
大規模な顔分析のための最初のフレームワークであるFaceBehaviorNetを構築し、すべての顔行動タスクを共同で学習する。
論文 参考訳(メタデータ) (2021-05-08T22:26:52Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z) - Automated Relational Meta-learning [95.02216511235191]
本稿では,クロスタスク関係を自動的に抽出し,メタ知識グラフを構築する自動リレーショナルメタ学習フレームワークを提案する。
我々は,2次元玩具の回帰と少数ショット画像分類に関する広範な実験を行い,ARMLが最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-03T07:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。