論文の概要: Pseudo-supervised Deep Subspace Clustering
- arxiv url: http://arxiv.org/abs/2104.03531v1
- Date: Thu, 8 Apr 2021 06:25:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 13:20:37.974420
- Title: Pseudo-supervised Deep Subspace Clustering
- Title(参考訳): 擬似教師付き深部宇宙クラスタリング
- Authors: Juncheng Lv and Zhao Kang and Xiao Lu and Zenglin Xu
- Abstract要約: オートエンコーダ (AE) ベースのディープサブスペースクラスタリング (DSC) 手法は優れた性能を発揮している。
しかし、AEの自己再建損失は、豊富な有用な関係情報を無視する。
また、セマンティクスラベルを供給せずにハイレベルな類似性を学ぶことも困難である。
- 参考スコア(独自算出の注目度): 27.139553299302754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Auto-Encoder (AE)-based deep subspace clustering (DSC) methods have achieved
impressive performance due to the powerful representation extracted using deep
neural networks while prioritizing categorical separability. However,
self-reconstruction loss of an AE ignores rich useful relation information and
might lead to indiscriminative representation, which inevitably degrades the
clustering performance. It is also challenging to learn high-level similarity
without feeding semantic labels. Another unsolved problem facing DSC is the
huge memory cost due to $n\times n$ similarity matrix, which is incurred by the
self-expression layer between an encoder and decoder. To tackle these problems,
we use pairwise similarity to weigh the reconstruction loss to capture local
structure information, while a similarity is learned by the self-expression
layer. Pseudo-graphs and pseudo-labels, which allow benefiting from uncertain
knowledge acquired during network training, are further employed to supervise
similarity learning. Joint learning and iterative training facilitate to obtain
an overall optimal solution. Extensive experiments on benchmark datasets
demonstrate the superiority of our approach. By combining with the $k$-nearest
neighbors algorithm, we further show that our method can address the
large-scale and out-of-sample problems.
- Abstract(参考訳): オートエンコーダ(AE)ベースのディープサブスペースクラスタリング(DSC)手法は、分類的分離性を優先しながら、ディープニューラルネットワークを用いて抽出された強力な表現により、優れた性能を達成した。
しかし、AEの自己再構成損失は、豊富な有用な関係情報を無視し、識別不能な表現につながる可能性があるため、クラスタリング性能は必然的に低下する。
セマンティックラベルを入力せずに高いレベルの類似性を学ぶことも難しい。
dscが直面するもう1つの未解決問題は、エンコーダとデコーダの間の自己表現層によって引き起こされる$n\times n$ similarity matrixによる巨大なメモリコストである。
これらの問題に対処するため, 自己表現層で類似性を学習しながら, 復元損失の重み付けを行い, 局所構造情報を取得する。
ネットワークトレーニング中に獲得した未知の知識の恩恵を受ける疑似グラフと疑似ラベルは、類似性学習を監督するためにさらに用いられる。
共同学習と反復学習は、全体的な最適解を得るのに役立つ。
ベンチマークデータセットに関する大規模な実験は、我々のアプローチの優位性を示している。
さらに, $k$-nearest neighbors アルゴリズムと組み合わせることで,本手法が大規模なサンプル外問題に対処可能であることを示す。
関連論文リスト
- Unfolding ADMM for Enhanced Subspace Clustering of Hyperspectral Images [43.152314090830174]
本稿では,スパースサブスペースクラスタリングのためのマルチプライヤの交互方向法(ADMM)に基づく反復解法を展開させることにより,ハイパースペクトル画像(HSI)のための革新的なクラスタリングアーキテクチャを提案する。
提案手法は, 構造保存モジュールの一部として, K近傍近傍のアルゴリズムを用いて, HSIデータの構造特性をよく把握する。
論文 参考訳(メタデータ) (2024-04-10T15:51:46Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Learning Deep Optimal Embeddings with Sinkhorn Divergences [33.496926214655666]
Deep Metric Learningアルゴリズムは、入力データ間の類似性関係を維持するために、効率的な埋め込み空間を学習することを目的としている。
これらのアルゴリズムは、幅広いタスクにおいて大きなパフォーマンス向上を達成したが、包括的な類似性制約を考慮せず、増大させた。
ここでは,新しい,しかし効果的なDeep Class-wise Discrepancy Loss関数を設計することで,識別的深層埋め込み空間を学習することの懸念に対処する。
論文 参考訳(メタデータ) (2022-09-14T07:54:16Z) - Hyperspherical Consistency Regularization [45.00073340936437]
我々は,自己教師あり学習と教師あり学習の関係について検討し,自己教師あり学習がデータ効率のよい深層学習にどのように役立つかを検討する。
超球面整合正則化(HCR)を提案し,特徴依存情報を用いた分類器の正規化を行い,ラベルからのバイアスを回避する。
論文 参考訳(メタデータ) (2022-06-02T02:41:13Z) - CCLF: A Contrastive-Curiosity-Driven Learning Framework for
Sample-Efficient Reinforcement Learning [56.20123080771364]
我々は、強化学習のためのモデルに依存しないコントラスト駆動学習フレームワーク(CCLF)を開発した。
CCLFは、サンプルの重要性を完全に活用し、自己管理的な学習効率を向上させる。
このアプローチをDeepMind Control Suite、Atari、MiniGridベンチマークで評価する。
論文 参考訳(メタデータ) (2022-05-02T14:42:05Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - Robust Self-Ensembling Network for Hyperspectral Image Classification [38.84831094095329]
この問題に対処するために,ロバストな自己認識ネットワーク(RSEN)を提案する。
rsenはベースネットワークとアンサンブルネットワークを含む2つのワークから成り立っている。
提案アルゴリズムは, 最先端手法と比較して, 競争性能を向上できることを示す。
論文 参考訳(メタデータ) (2021-04-08T13:33:14Z) - NN-EVCLUS: Neural Network-based Evidential Clustering [6.713564212269253]
本稿では,NN-EVCLUSと呼ばれるニューラルネットワークに基づく明確なクラスタリングアルゴリズムを提案する。
属性ベクトルから質量関数への写像を学習し、より類似した入力がより低い競合度を持つ質量関数の出力にマッピングされるようにする。
ネットワークは、すべてのオブジェクトまたはいくつかのオブジェクトペアの相違点と相反点の差を最小限に抑えるように訓練されている。
論文 参考訳(メタデータ) (2020-09-27T09:05:41Z) - Dual Adversarial Auto-Encoders for Clustering [152.84443014554745]
教師なしクラスタリングのためのDual-AAE(Dual-AAE)を提案する。
Dual-AAEの目的関数に対する変分推論を行うことで,一対のオートエンコーダをトレーニングすることで最適化可能な新たな再構成損失を導出する。
4つのベンチマーク実験により、Dual-AAEは最先端のクラスタリング手法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-23T13:16:34Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。