論文の概要: Learning Robust Representations via Multi-View Information Bottleneck
- arxiv url: http://arxiv.org/abs/2002.07017v2
- Date: Tue, 18 Feb 2020 09:47:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 12:07:47.739323
- Title: Learning Robust Representations via Multi-View Information Bottleneck
- Title(参考訳): マルチビュー情報を用いたロバスト表現の学習
- Authors: Marco Federici, Anjan Dutta, Patrick Forr\'e, Nate Kushman, Zeynep
Akata
- Abstract要約: 元の定式化は、過剰な情報を識別するためにラベル付きデータを必要とする。
この機能は、同一のエンティティの2つのビューが提供されるが、ラベルが不明なマルチビューアントラクサ設定に拡張する。
理論的解析により、MIR-FlickrデータセットのSketchyデータセットとラベル限定バージョンで最先端の結果を生成する新しいマルチビューモデルが定義される。
- 参考スコア(独自算出の注目度): 41.65544605954621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The information bottleneck principle provides an information-theoretic method
for representation learning, by training an encoder to retain all information
which is relevant for predicting the label while minimizing the amount of
other, excess information in the representation. The original formulation,
however, requires labeled data to identify the superfluous information. In this
work, we extend this ability to the multi-view unsupervised setting, where two
views of the same underlying entity are provided but the label is unknown. This
enables us to identify superfluous information as that not shared by both
views. A theoretical analysis leads to the definition of a new multi-view model
that produces state-of-the-art results on the Sketchy dataset and label-limited
versions of the MIR-Flickr dataset. We also extend our theory to the
single-view setting by taking advantage of standard data augmentation
techniques, empirically showing better generalization capabilities when
compared to common unsupervised approaches for representation learning.
- Abstract(参考訳): 情報ボトルネック原理は、表示における他の過剰な情報量を最小限に抑えつつ、ラベルの予測に関連するすべての情報をエンコーダに保持するように訓練することにより、表現学習のための情報理論的な方法を提供する。
しかし、元の定式化では、過剰な情報を識別するためにラベル付きデータが必要である。
本研究では,この能力を,同一の実体の2つのビューが提供されるが,ラベルが不明なマルチビューアン教師付き設定に拡張する。
これにより、両方のビューで共有されていない余分な情報を識別することができます。
理論的解析により、MIR-FlickrデータセットのSketchyデータセットとラベル限定バージョンで最先端の結果を生成する新しいマルチビューモデルが定義される。
また、標準的なデータ拡張技術を活用し、表現学習における一般的な教師なしアプローチと比較して、より優れた一般化能力を示す。
関連論文リスト
- Discovering Common Information in Multi-view Data [35.37807004353416]
多視点データから共通情報を計算するための革新的で数学的に厳密な定義を導入する。
我々は,共通情報と一意情報の両方を捉えるために,教師付き多視点学習フレームワークを開発した。
論文 参考訳(メタデータ) (2024-06-21T10:47:06Z) - Learning Representations without Compositional Assumptions [79.12273403390311]
本稿では,特徴集合をグラフノードとして表現し,それらの関係を学習可能なエッジとして表現することで,特徴集合の依存関係を学習するデータ駆動型アプローチを提案する。
また,複数のビューから情報を動的に集約するために,より小さな潜在グラフを学習する新しい階層グラフオートエンコーダLEGATOを導入する。
論文 参考訳(メタデータ) (2023-05-31T10:36:10Z) - Multi-View Clustering from the Perspective of Mutual Information [0.0]
Informative Multi-View Clustering (IMVC) と呼ばれる情報理論に基づく新しいモデルを提案する。
IMVCは、多視点データに隠された共通かつビュー固有の情報を抽出し、クラスタリング指向の包括的な表現を構築する。
本研究では,6つのベンチマークデータセットについて広範な実験を行い,IMVCが他の手法よりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2023-02-17T07:49:27Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Self-Supervised Information Bottleneck for Deep Multi-View Subspace
Clustering [29.27475285925792]
我々は、SIB-MSC(Self-supervised Information Bottleneck based Multi-view Subspace Clustering)と呼ばれる新しいフレームワークを確立する。
SIB-MSCは、情報のボトルネックから利点を継承し、各ビューの潜伏空間を学習し、異なるビューの潜伏表現の共通情報をキャプチャする。
本手法は,最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-04-26T15:49:59Z) - Learning Weakly-Supervised Contrastive Representations [104.42824068960668]
弱教師付きコントラスト学習手法を2段階提案する。
第1段階は、その補助情報に従ってデータをクラスタ化することである。
2つ目のステージは、同じクラスタ内で同様の表現を学習し、異なるクラスタからのデータに対して異なる表現を学習することである。
論文 参考訳(メタデータ) (2022-02-14T12:57:31Z) - InSRL: A Multi-view Learning Framework Fusing Multiple Information
Sources for Distantly-supervised Relation Extraction [19.176183245280267]
ナレッジベースに広く存在する2つのソース、すなわちエンティティ記述と複数の粒度のエンティティタイプを紹介します。
Intact Space Representation Learning (InSRL) による関係抽出のためのエンドツーエンドのマルチビュー学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-17T02:49:46Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。