論文の概要: Function Contrastive Learning of Transferable Meta-Representations
- arxiv url: http://arxiv.org/abs/2010.07093v3
- Date: Thu, 22 Jul 2021 11:45:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 12:44:19.557832
- Title: Function Contrastive Learning of Transferable Meta-Representations
- Title(参考訳): 伝達可能なメタ表現の関数コントラスト学習
- Authors: Muhammad Waleed Gondal, Shruti Joshi, Nasim Rahaman, Stefan Bauer,
Manuel W\"uthrich, Bernhard Sch\"olkopf
- Abstract要約: 共同訓練がメタ表現の伝達性に及ぼす影響について検討した。
教師付きメタ学習のためのデカップリングエンコーダデコーダアプローチを提案する。
- 参考スコア(独自算出の注目度): 38.31692245188669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning algorithms adapt quickly to new tasks that are drawn from the
same task distribution as the training tasks. The mechanism leading to fast
adaptation is the conditioning of a downstream predictive model on the inferred
representation of the task's underlying data generative process, or
\emph{function}. This \emph{meta-representation}, which is computed from a few
observed examples of the underlying function, is learned jointly with the
predictive model. In this work, we study the implications of this joint
training on the transferability of the meta-representations. Our goal is to
learn meta-representations that are robust to noise in the data and facilitate
solving a wide range of downstream tasks that share the same underlying
functions. To this end, we propose a decoupled encoder-decoder approach to
supervised meta-learning, where the encoder is trained with a contrastive
objective to find a good representation of the underlying function. In
particular, our training scheme is driven by the self-supervision signal
indicating whether two sets of examples stem from the same function. Our
experiments on a number of synthetic and real-world datasets show that the
representations we obtain outperform strong baselines in terms of downstream
performance and noise robustness, even when these baselines are trained in an
end-to-end manner.
- Abstract(参考訳): メタ学習アルゴリズムは、トレーニングタスクと同じタスク分布から引き出された新しいタスクに迅速に適応する。
高速適応に至るメカニズムは、タスクの基盤となるデータ生成プロセス、すなわち \emph{function} の推論された表現に基づく下流予測モデルの条件付けである。
この \emph{meta-representation} は基底関数のいくつかの例から計算され、予測モデルと共同で学習される。
本研究では,この共同学習がメタ表現の伝達性に与える影響について検討する。
我々のゴールは、データのノイズに対して堅牢なメタ表現を学習し、同じ基礎機能を共有する幅広い下流タスクの解決を容易にすることです。
そこで本研究では,教師付きメタラーニングのためのデカップリング型エンコーダデコーダアプローチを提案する。
特に, 2組のサンプルが同じ関数に由来するかどうかを示す自己スーパービジョン信号によって学習が進められる。
複数の合成データと実世界のデータセットに関する実験では、ダウンストリームのパフォーマンスとノイズロバスト性の観点から見た表現が、エンドツーエンドでトレーニングされた場合でも、強固なベースラインよりも優れています。
関連論文リスト
- USDRL: Unified Skeleton-Based Dense Representation Learning with Multi-Grained Feature Decorrelation [24.90512145836643]
本稿では,特徴デコレーションに基づく統一骨格に基づくDense Representation Learningフレームワークを提案する。
我々のアプローチは現在のSOTA(State-of-the-art)アプローチよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-12-12T12:20:27Z) - Parameter-Efficient and Memory-Efficient Tuning for Vision Transformer: A Disentangled Approach [87.8330887605381]
本稿では,学習可能なパラメータをわずかに限定して,事前学習した視覚変換器を下流認識タスクに適用する方法を示す。
学習可能で軽量なモジュールを用いてタスク固有のクエリを合成する。
本手法はメモリ制約下での最先端性能を実現し,実環境における適用性を示す。
論文 参考訳(メタデータ) (2024-07-09T15:45:04Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - MARS: Meta-Learning as Score Matching in the Function Space [79.73213540203389]
本稿では,一連の関連するデータセットから帰納バイアスを抽出する手法を提案する。
機能的ベイズニューラルネットワーク推論を用いて、前者をプロセスとみなし、関数空間で推論を行う。
本手法は,データ生成プロセスのスコア関数をメタラーニングすることにより,複雑な事前知識をシームレスに獲得し,表現することができる。
論文 参考訳(メタデータ) (2022-10-24T15:14:26Z) - Learning Operators with Coupled Attention [9.715465024071333]
本稿では,近年の注目機構の成功を動機とした,新しい演算子学習手法であるLOCAを提案する。
我々のアーキテクチャでは、入力関数は有限個の特徴にマッピングされ、その特徴は出力クエリの場所に依存する注意重みで平均化される。
これらの注意重みを積分変換と組み合わせることで、LOCAは目標出力関数の相関関係を明示的に学習することができる。
論文 参考訳(メタデータ) (2022-01-04T08:22:03Z) - A Representation Learning Perspective on the Importance of
Train-Validation Splitting in Meta-Learning [14.720411598827365]
各タスクからのデータを、メタトレーニング中にトレインとバリデーションセットに分割する。
列車価分割は,表現性を損なうことなく,学習した表現を低ランクにすることを促すと論じる。
サンプル効率は低ランク性から恩恵を受けるため、分割戦略は見当たらないテストタスクを解決するのに非常に少数のサンプルを必要とする。
論文 参考訳(メタデータ) (2021-06-29T17:59:33Z) - Conditional Meta-Learning of Linear Representations [57.90025697492041]
表現学習のための標準メタラーニングは、複数のタスク間で共有される共通の表現を見つけることを目的とする。
本研究では,タスクの側情報を手作業に適した表現にマッピングし,条件付け関数を推定することで,この問題を克服する。
この利点を実用的に活用できるメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-30T12:02:14Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。