論文の概要: Multi-VAE: Learning Disentangled View-common and View-peculiar Visual
Representations for Multi-view Clustering
- arxiv url: http://arxiv.org/abs/2106.11232v1
- Date: Mon, 21 Jun 2021 16:23:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:46:19.087402
- Title: Multi-VAE: Learning Disentangled View-common and View-peculiar Visual
Representations for Multi-view Clustering
- Title(参考訳): Multi-VAE:マルチビュークラスタリングのためのディスタングル・ビュー・コモンとビュー・カラー・ビジュアル表現の学習
- Authors: Jie Xu, Yazhou Ren, Huayi Tang, Xiaorong Pu, Xiaofeng Zhu, Ming Zeng,
Lifang He
- Abstract要約: VAEベースのマルチビュークラスタリングフレームワーク(Multi-VAE)を提案する。
生成モデルにおいて、ビュー-共通変数と複数のビュー-ペキュリアル変数を定義する。
複数のビューの連続的な視覚情報を切り離すために相互情報容量を制御することにより、複数のビューの連続的な視覚情報を分離することができる。
- 参考スコア(独自算出の注目度): 20.412896884905496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view clustering, a long-standing and important research problem,
focuses on mining complementary information from diverse views. However,
existing works often fuse multiple views' representations or handle clustering
in a common feature space, which may result in their entanglement especially
for visual representations. To address this issue, we present a novel VAE-based
multi-view clustering framework (Multi-VAE) by learning disentangled visual
representations. Concretely, we define a view-common variable and multiple
view-peculiar variables in the generative model. The prior of view-common
variable obeys approximately discrete Gumbel Softmax distribution, which is
introduced to extract the common cluster factor of multiple views. Meanwhile,
the prior of view-peculiar variable follows continuous Gaussian distribution,
which is used to represent each view's peculiar visual factors. By controlling
the mutual information capacity to disentangle the view-common and
view-peculiar representations, continuous visual information of multiple views
can be separated so that their common discrete cluster information can be
effectively mined. Experimental results demonstrate that Multi-VAE enjoys the
disentangled and explainable visual representations, while obtaining superior
clustering performance compared with state-of-the-art methods.
- Abstract(参考訳): 長期的かつ重要な研究課題であるマルチビュークラスタリングは、多様な視点から補完的な情報をマイニングすることに焦点を当てている。
しかし、既存の研究はしばしば複数のビューの表現を融合させたり、共通の特徴空間におけるクラスタリングを処理したりする。
この問題に対処するために,不整合視覚表現を学習し,VAEベースのマルチビュークラスタリングフレームワーク(Multi-VAE)を提案する。
具体的には、生成モデルにおいて、ビュー共通変数と複数のビュー並列変数を定義する。
ビュー-共通変数の先行は、複数のビューの共通クラスタ係数を抽出するために導入された、およそ離散的なGumbel Softmax分布に従う。
一方、ビュー・ペキュリアル変数の事前は、各ビューの特徴的な視覚因子を表すために使われる連続ガウス分布に従う。
ビュー・共通表現とビュー・ペキュリオア表現とを分離する相互情報容量を制御することにより、複数のビューの連続視覚情報を分離することができ、それらの共通離散クラスタ情報を効果的にマイニングすることができる。
実験結果から,マルチVAEは,最先端の手法と比較して,クラスタリング性能が優れている一方で,不整合かつ説明可能な視覚表現を享受できることが示された。
関連論文リスト
- Multi-View Causal Representation Learning with Partial Observability [36.37049791756438]
同時に観察された視点から学習した表現の識別可能性を研究するための統一的な枠組みを提案する。
任意のビューのすべてのサブセット間で共有される情報は、コントラスト学習を用いてスムーズなビジェクションまで学習できることを実証する。
数値、画像、マルチモーダルデータセットに関する我々の主張を実験的に検証する。
論文 参考訳(メタデータ) (2023-11-07T15:07:08Z) - Towards Generalized Multi-stage Clustering: Multi-view Self-distillation [10.368796552760571]
既存のマルチステージクラスタリング手法は、独立して複数のビューから健全な特徴を学習し、クラスタリングタスクを実行する。
本稿では,多視点自己蒸留(DistilMVC)を導入し,ラベル分布の暗黒知識を抽出する多段階深層MVCフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-29T03:35:34Z) - DealMVC: Dual Contrastive Calibration for Multi-view Clustering [78.54355167448614]
マルチビュークラスタリングのための新しいデュアルコントラストキャリブレーションネットワーク(DealMVC)を提案する。
まず、グローバルなクロスビュー特徴を得るための融合機構を設計し、その上で、ビュー特徴類似性グラフと高信頼な擬ラベルグラフを整列させることにより、グローバルなコントラストキャリブレーション損失を提案する。
トレーニング手順の間、対話型クロスビュー機能は、ローカルレベルとグローバルレベルの両方で共同最適化される。
論文 参考訳(メタデータ) (2023-08-17T14:14:28Z) - Multi-View Clustering from the Perspective of Mutual Information [0.0]
Informative Multi-View Clustering (IMVC) と呼ばれる情報理論に基づく新しいモデルを提案する。
IMVCは、多視点データに隠された共通かつビュー固有の情報を抽出し、クラスタリング指向の包括的な表現を構築する。
本研究では,6つのベンチマークデータセットについて広範な実験を行い,IMVCが他の手法よりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2023-02-17T07:49:27Z) - Dual Representation Learning for One-Step Clustering of Multi-View Data [30.131568561100817]
異なるビューの共通情報と特定情報の二重表現を利用して,新しい一段階のマルチビュークラスタリング手法を提案する。
このフレームワークでは、表現学習とクラスタリングのパーティションが相互に恩恵を受け、クラスタリングのパフォーマンスが効果的に向上する。
論文 参考訳(メタデータ) (2022-08-30T14:20:26Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Self-supervised Discriminative Feature Learning for Multi-view
Clustering [12.725701189049403]
マルチビュークラスタリング(SDMVC)のための自己監視型識別機能学習の提案
具体的には、各ビューの組み込み機能を独立して学習するために、ディープオートエンコーダが適用される。
さまざまなタイプのマルチビューデータセットの実験は、SDMVCが最先端のパフォーマンスを達成することを示しています。
論文 参考訳(メタデータ) (2021-03-28T07:18:39Z) - V3H: View Variation and View Heredity for Incomplete Multi-view
Clustering [65.29597317608844]
不完全なマルチビュークラスタリングは、これらの不完全なビューを統合する効果的な方法である。
本稿では,この制限を克服するために,新しいビューバージョニング・ビュー・ジェレダリティ・アプローチ(V3H)を提案する。
V3Hは、不完全なマルチビューデータから一貫した情報とユニークな情報を同時に学習するためのクラスタリングアルゴリズムに遺伝学を導入する最初の研究である可能性がある。
論文 参考訳(メタデータ) (2020-11-23T03:24:48Z) - Unsupervised Multi-view Clustering by Squeezing Hybrid Knowledge from
Cross View and Each View [68.88732535086338]
本稿では,適応グラフ正規化に基づくマルチビュークラスタリング手法を提案する。
5つの多視点ベンチマークの実験結果から,提案手法が他の最先端手法をクリアマージンで上回ることを示す。
論文 参考訳(メタデータ) (2020-08-23T08:25:06Z) - Generative Partial Multi-View Clustering [133.36721417531734]
本稿では,不完全なマルチビュー問題に対処するため,GP-MVCと呼ばれる生成的部分的マルチビュークラスタリングモデルを提案する。
まず、マルチビューエンコーダネットワークをトレーニングして、一般的な低次元表現を学習し、次にクラスタリング層を使用して複数のビューをまたいだ一貫したクラスタ構造をキャプチャする。
第2に、他のビューが与える共有表現に基づいて、1つのビュー条件の欠落データを生成するために、ビュー固有の生成敵ネットワークを開発する。
論文 参考訳(メタデータ) (2020-03-29T17:48:27Z) - Variational Inference for Deep Probabilistic Canonical Correlation
Analysis [49.36636239154184]
線形多視点層と深層生成ネットワークを観測モデルとして構成した深部確率的多視点モデルを提案する。
潜在確率多視点層の後方分布を近似した効率的な変分推論法を開発した。
任意の数のビューを持つモデルへの一般化も提案されている。
論文 参考訳(メタデータ) (2020-03-09T17:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。