論文の概要: Multi-view Deep Subspace Clustering Networks
- arxiv url: http://arxiv.org/abs/1908.01978v2
- Date: Sun, 24 Mar 2024 17:47:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 02:25:02.398248
- Title: Multi-view Deep Subspace Clustering Networks
- Title(参考訳): マルチビューディープサブスペースクラスタリングネットワーク
- Authors: Pengfei Zhu, Xinjie Yao, Yu Wang, Binyuan Hui, Dawei Du, Qinghua Hu,
- Abstract要約: マルチビューサブスペースクラスタリングは、相補的な情報の複数のビューを融合することによって、データ固有の構造を発見することを目的としている。
本稿では,MvDSCN(Multi-view Deep Subspace Clustering Networks)を提案する。
MvDSCNはクラスタリング性能を高めるために複数のバックボーンを統合する。
- 参考スコア(独自算出の注目度): 64.29227045376359
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view subspace clustering aims to discover the inherent structure of data by fusing multiple views of complementary information. Most existing methods first extract multiple types of handcrafted features and then learn a joint affinity matrix for clustering. The disadvantage of this approach lies in two aspects: 1) multi-view relations are not embedded into feature learning, and 2) the end-to-end learning manner of deep learning is not suitable for multi-view clustering. Even when deep features have been extracted, it is a nontrivial problem to choose a proper backbone for clustering on different datasets. To address these issues, we propose the Multi-view Deep Subspace Clustering Networks (MvDSCN), which learns a multi-view self-representation matrix in an end-to-end manner. The MvDSCN consists of two sub-networks, \ie, a diversity network (Dnet) and a universality network (Unet). A latent space is built using deep convolutional autoencoders, and a self-representation matrix is learned in the latent space using a fully connected layer. Dnet learns view-specific self-representation matrices, whereas Unet learns a common self-representation matrix for all views. To exploit the complementarity of multi-view representations, the Hilbert--Schmidt independence criterion (HSIC) is introduced as a diversity regularizer that captures the nonlinear, high-order inter-view relations. Because different views share the same label space, the self-representation matrices of each view are aligned to the common one by universality regularization. The MvDSCN also unifies multiple backbones to boost clustering performance and avoid the need for model selection. Experiments demonstrate the superiority of the MvDSCN.
- Abstract(参考訳): マルチビューサブスペースクラスタリングは、相補的な情報の複数のビューを融合することによって、データ固有の構造を発見することを目的としている。
既存のほとんどの手法は、まず複数の手作りの特徴を抽出し、次にクラスタリングのための関節親和性行列を学習する。
このアプローチの欠点は2つの側面にある。
1)多視点関係は特徴学習に埋め込まれていない。
2) ディープラーニングのエンドツーエンド学習方式は,マルチビュークラスタリングには適していない。
深い機能が抽出されたとしても、異なるデータセットでクラスタリングする適切なバックボーンを選択するのは、簡単な問題ではありません。
これらの課題に対処するため,マルチビュー・ディープ・サブスペース・クラスタリング・ネットワーク(MvDSCN)を提案する。
MvDSCNは2つのサブネットワーク、Shaie、多様性ネットワーク(Dnet)、普遍ネットワーク(Unet)で構成されている。
潜伏空間は深部畳み込み自己エンコーダを用いて構築され、完全連結層を用いて潜伏空間で自己表現行列が学習される。
Dnetはビュー固有の自己表現行列を学習し、Unetはすべてのビューに対して共通の自己表現行列を学習する。
マルチビュー表現の相補性を活用するために、非線形で高次なビュー間関係をキャプチャする多様性正規化器として、ヒルベルト・シュミット独立基準(HSIC)を導入している。
異なるビューが同じラベル空間を共有するため、各ビューの自己表現行列は普遍性正規化によって共通のビューに整列する。
MvDSCNはまた、クラスタリング性能を向上させるために複数のバックボーンを統一し、モデル選択の必要を回避する。
実験は、MvDSCNの優位性を示す。
関連論文リスト
- Asymmetric double-winged multi-view clustering network for exploring
Diverse and Consistent Information [28.300395619444796]
教師なしのシナリオでは、ディープコントラッシブ・マルチビュー・クラスタリング(DCMVC)がホットな研究スポットになりつつある。
我々はCodingNetと呼ばれる新しいマルチビュークラスタリングネットワークを提案し、多様な一貫した情報を同時に探索する。
フレームワークの有効性は、広く使用されている6つのベンチマークデータセットに関する広範な実験を通じて検証される。
論文 参考訳(メタデータ) (2023-09-01T14:13:22Z) - Adaptively-weighted Integral Space for Fast Multiview Clustering [54.177846260063966]
線形複雑度に近い高速マルチビュークラスタリングのための適応重み付き積分空間(AIMC)を提案する。
特に、ビュー生成モデルは、潜在積分空間からのビュー観測を再構成するために設計されている。
いくつかの実世界のデータセットで実施された実験は、提案したAIMC法の優位性を確認した。
論文 参考訳(メタデータ) (2022-08-25T05:47:39Z) - GOCA: Guided Online Cluster Assignment for Self-Supervised Video
Representation Learning [49.69279760597111]
クラスタリングは教師なし学習におけるユビキタスなツールです。
既存の自己教師型表現学習手法の多くは、視覚的に支配的な特徴に基づくクラスタサンプルが一般的である。
具体的には、各ビューの初期クラスタ割り当てを事前に使用して、他のビューの最終クラスタ割り当てをガイドする、新しいクラスタリング戦略を提案する。
論文 参考訳(メタデータ) (2022-07-20T19:26:55Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - Joint Multi-view Unsupervised Feature Selection and Graph Learning [18.303477722460247]
本稿では,JMVFG(Command Multi-view unsupervised feature selection and graph learning)アプローチを提案する。
複数視点の特徴選択を分解で定式化し、各対象行列をビュー固有の基底行列に分解する。
様々な実世界のマルチビューデータセットの実験は、マルチビュー特徴選択とグラフ学習タスクの両方において、我々のアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2022-04-18T10:50:03Z) - Multi-view Subspace Adaptive Learning via Autoencoder and Attention [3.8574404853067215]
我々は,アテンションとオートエンコーダ(MSALAA)に基づくマルチビューサブスペース適応学習を提案する。
この方法は、ディープオートエンコーダと、様々なビューの自己表現を調整する方法を組み合わせる。
6つの実生活データセット上で,既存のベースライン手法に対する顕著な改善を実証的に観察した。
論文 参考訳(メタデータ) (2022-01-01T11:31:52Z) - Multi-view Subspace Clustering Networks with Local and Global Graph
Information [19.64977233324484]
本研究の目的は、異なる分野や測定値から収集されたデータの基盤となるグループ構造を検討することである。
我々は,MSCNLGと呼ばれる局所グラフ情報とグローバルグラフ情報を備えた,新しいマルチビューサブスペースクラスタリングネットワークを提案する。
エンド・ツー・エンドのトレーニング可能なフレームワークとして、提案手法は複数のビューの貴重な情報を完全に調査する。
論文 参考訳(メタデータ) (2020-10-19T09:00:19Z) - Deep Incomplete Multi-View Multiple Clusterings [41.43164409639238]
データビューと複数の共有表現を同時に補完する、深い不完全なマルチビュー多重クラスタリングフレームワークを導入する。
ベンチマークデータセットの実験では、DiMVMCは、多様性と品質の高い複数のクラスタリングの生成において、最先端の競合よりも優れていることが確認されている。
論文 参考訳(メタデータ) (2020-10-02T08:01:24Z) - Unsupervised Multi-view Clustering by Squeezing Hybrid Knowledge from
Cross View and Each View [68.88732535086338]
本稿では,適応グラフ正規化に基づくマルチビュークラスタリング手法を提案する。
5つの多視点ベンチマークの実験結果から,提案手法が他の最先端手法をクリアマージンで上回ることを示す。
論文 参考訳(メタデータ) (2020-08-23T08:25:06Z) - Generative Partial Multi-View Clustering [133.36721417531734]
本稿では,不完全なマルチビュー問題に対処するため,GP-MVCと呼ばれる生成的部分的マルチビュークラスタリングモデルを提案する。
まず、マルチビューエンコーダネットワークをトレーニングして、一般的な低次元表現を学習し、次にクラスタリング層を使用して複数のビューをまたいだ一貫したクラスタ構造をキャプチャする。
第2に、他のビューが与える共有表現に基づいて、1つのビュー条件の欠落データを生成するために、ビュー固有の生成敵ネットワークを開発する。
論文 参考訳(メタデータ) (2020-03-29T17:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。