論文の概要: Contrastive Meta-Learning for Partially Observable Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2301.13136v1
- Date: Mon, 30 Jan 2023 18:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 13:29:35.659074
- Title: Contrastive Meta-Learning for Partially Observable Few-Shot Learning
- Title(参考訳): 部分観測可能なFew-Shot学習のためのコントラストメタラーニング
- Authors: Adam Jelley, Amos Storkey, Antreas Antoniou, Sam Devlin
- Abstract要約: 本稿では,部分的な観察から統一表現を学習することの問題点について考察する。
我々はこれを確率論的形式主義(probabilistic formalism)を通じてアプローチし、ビューが異なるコンポーネントで異なるレベルの不確実性を持つ表現にマップできるようにする。
我々のアプローチである部分観察エキスパートモデリング(POEM)は、部分観察からメタ学習した一貫した表現を可能にする。
- 参考スコア(独自算出の注目度): 5.363168481735953
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many contrastive and meta-learning approaches learn representations by
identifying common features in multiple views. However, the formalism for these
approaches generally assumes features to be shared across views to be captured
coherently. We consider the problem of learning a unified representation from
partial observations, where useful features may be present in only some of the
views. We approach this through a probabilistic formalism enabling views to map
to representations with different levels of uncertainty in different
components; these views can then be integrated with one another through
marginalisation over that uncertainty. Our approach, Partial Observation
Experts Modelling (POEM), then enables us to meta-learn consistent
representations from partial observations. We evaluate our approach on an
adaptation of a comprehensive few-shot learning benchmark, Meta-Dataset, and
demonstrate the benefits of POEM over other meta-learning methods at
representation learning from partial observations. We further demonstrate the
utility of POEM by meta-learning to represent an environment from partial views
observed by an agent exploring the environment.
- Abstract(参考訳): 多くの対比的およびメタラーニングアプローチは、複数のビューで共通の特徴を識別することで表現を学習する。
しかしながら、これらのアプローチの形式主義は概して、ビュー間で共有される特徴を一貫性を持って捉えることを前提としている。
本稿では,部分的な観察から統一表現を学習することの問題点について考察する。
我々はこれを確率論的形式主義(probabilistic formalism)を通じてアプローチし、異なるコンポーネントにおける異なるレベルの不確実性を持つ表現にビューをマッピングできるようにする。
我々のアプローチである部分観察エキスパートモデリング(POEM)は、部分観察からメタ学習した一貫した表現を可能にする。
提案手法は,総合的な数ショット学習ベンチマークMeta-Datasetの適応性について評価し,部分的な観察から表現学習を行う場合の他のメタ学習方法に対するPOEMの利点を実証する。
さらに,環境を探索するエージェントが観察する部分的な視点から環境を表現するメタラーニングによるPOEMの有用性を示す。
関連論文リスト
- Multi-View Causal Representation Learning with Partial Observability [36.37049791756438]
同時に観察された視点から学習した表現の識別可能性を研究するための統一的な枠組みを提案する。
任意のビューのすべてのサブセット間で共有される情報は、コントラスト学習を用いてスムーズなビジェクションまで学習できることを実証する。
数値、画像、マルチモーダルデータセットに関する我々の主張を実験的に検証する。
論文 参考訳(メタデータ) (2023-11-07T15:07:08Z) - MetaViewer: Towards A Unified Multi-View Representation [29.71883878740635]
本稿では,二段階最適化に基づく新しい多視点学習フレームワークを提案する。
具体的には、メタラーナー、すなわちMetaViewerを訓練し、融合を学び、ビュー共有メタ表現をモデル化します。
論文 参考訳(メタデータ) (2023-03-11T07:17:28Z) - Semantically Consistent Multi-view Representation Learning [11.145085584637744]
SCMRL(Semantically Consistent Multi-view Representation Learning)を提案する。
SCMRLは、基礎となる多視点セマンティックコンセンサス情報を抽出し、その情報を利用して、統合された特徴表現学習を導く。
いくつかの最先端のアルゴリズムと比較して、広範な実験はその優位性を示している。
論文 参考訳(メタデータ) (2023-03-08T04:27:46Z) - Unifying Vision-Language Representation Space with Single-tower
Transformer [29.604520441315135]
両モダリティを同時にモダリティに依存しない方法で符号化する統一視覚言語表現空間を学習するためにモデルを訓練する。
我々は、モダリティ固有の表現空間を学習する以前の作品とOneRを区別する興味深い性質を発見する。
論文 参考訳(メタデータ) (2022-11-21T02:34:21Z) - An Empirical Investigation of Representation Learning for Imitation [76.48784376425911]
視覚、強化学習、NLPにおける最近の研究は、補助的な表現学習の目的が、高価なタスク固有の大量のデータの必要性を減らすことを示している。
本稿では,表現学習アルゴリズムを構築するためのモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-16T11:23:42Z) - Evaluation of Self-taught Learning-based Representations for Facial
Emotion Recognition [62.30451764345482]
この研究は、顔の感情認識のための自己学習の概念を通じて得られた教師なし表現を生成するための様々な戦略を記述する。
このアイデアは、オートエンコーダの初期化、アーキテクチャ、トレーニングデータを変化させることで、多様性を促進する補完的な表現を作ることである。
Jaffe と Cohn-Kanade のデータセットに対する残余のサブジェクトアウトプロトコルによる実験結果から,提案した多種多様な表現に基づく FER 手法が最先端のアプローチと好適に比較できることが示唆された。
論文 参考訳(メタデータ) (2022-04-26T22:48:15Z) - Learning Multimodal VAEs through Mutual Supervision [72.77685889312889]
MEMEは、相互監督を通じて暗黙的にモダリティ間の情報を結合する。
我々は、MEMEが、部分的および完全観察スキームの双方で標準メトリクスのベースラインを上回ることを実証する。
論文 参考訳(メタデータ) (2021-06-23T17:54:35Z) - A Variational Information Bottleneck Approach to Multi-Omics Data
Integration [98.6475134630792]
本稿では,不完全な多視点観測のための深い変動情報ボトルネック (IB) 手法を提案する。
本手法は,対象物に関連のある視点内および視点間相互作用に焦点をあてるために,観測された視点の辺縁および結合表現にISBフレームワークを適用した。
実世界のデータセットの実験から、我々の手法はデータ統合から常に利益を得て、最先端のベンチマークより優れています。
論文 参考訳(メタデータ) (2021-02-05T06:05:39Z) - Deep Partial Multi-View Learning [94.39367390062831]
クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
論文 参考訳(メタデータ) (2020-11-12T02:29:29Z) - Revisiting Meta-Learning as Supervised Learning [69.2067288158133]
メタラーニングと従来の教師付き学習の関連性を再考し,強化することで,原則的,統一的なフレームワークの提供を目指す。
タスク固有のデータセットとターゲットモデルを(機能、ラベル)サンプルとして扱うことで、多くのメタ学習アルゴリズムを教師付き学習のインスタンスに還元することができる。
この視点は、メタラーニングを直感的で実践的なフレームワークに統一するだけでなく、教師付き学習から直接洞察を伝達してメタラーニングを改善することができる。
論文 参考訳(メタデータ) (2020-02-03T06:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。