論文の概要: Label-independent hyperparameter-free self-supervised single-view deep subspace clustering
- arxiv url: http://arxiv.org/abs/2504.18179v1
- Date: Fri, 25 Apr 2025 08:54:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.704239
- Title: Label-independent hyperparameter-free self-supervised single-view deep subspace clustering
- Title(参考訳): ラベル非依存型ハイパーパラメータフリー・シングルビュー深部サブスペースクラスタリング
- Authors: Lovro Sindicic, Ivica Kopriva,
- Abstract要約: ディープサブスペースクラスタリング(DSC)アルゴリズムは、ドメイン間で広く採用されるのを妨げるいくつかの課題に直面している。
本稿では,結合表現行列を用いたレイヤワイド自己表現損失を最小限に抑える一視点DSC手法を提案する。
提案手法は,顔,数字,オブジェクトを表す6つのデータセットに対して評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep subspace clustering (DSC) algorithms face several challenges that hinder their widespread adoption across variois application domains. First, clustering quality is typically assessed using only the encoder's output layer, disregarding valuable information present in the intermediate layers. Second, most DSC approaches treat representation learning and subspace clustering as independent tasks, limiting their effectiveness. Third, they assume the availability of a held-out dataset for hyperparameter tuning, which is often impractical in real-world scenarios. Fourth, learning termination is commonly based on clustering error monitoring, requiring external labels. Finally, their performance often depends on post-processing techniques that rely on labeled data. To address this limitations, we introduce a novel single-view DSC approach that: (i) minimizes a layer-wise self expression loss using a joint representation matrix; (ii) optimizes a subspace-structured norm to enhance clustering quality; (iii) employs a multi-stage sequential learning framework, consisting of pre-training and fine-tuning, enabling the use of multiple regularization terms without hyperparameter tuning; (iv) incorporates a relative error-based self-stopping mechanism to terminate training without labels; and (v) retains a fixed number of leading coefficients in the learned representation matrix based on prior knowledge. We evaluate the proposed method on six datasets representing faces, digits, and objects. The results show that our method outperforms most linear SC algorithms with careffulyl tuned hyperparameters while maintaining competitive performance with the best performing linear appoaches.
- Abstract(参考訳): ディープサブスペースクラスタリング(DSC)アルゴリズムは、Varioisアプリケーションドメインで広く採用されるのを妨げるいくつかの課題に直面している。
まず、クラスタリングの品質は典型的には、中間層に存在する貴重な情報を無視して、エンコーダの出力層のみを使用して評価される。
第二に、ほとんどのDSCアプローチは、表現学習とサブスペースクラスタリングを独立したタスクとして扱い、その有効性を制限する。
第3に、ハイパーパラメータチューニングのためのホールドアウトデータセットが利用可能であると仮定する。
第4に、学習終了は通常、クラスタリングエラー監視に基づいており、外部ラベルを必要とする。
最後に、そのパフォーマンスはラベル付きデータに依存する後処理技術に依存することが多い。
この制限に対処するために、私たちは次のような新しい単一ビューDSCアプローチを導入します。
i) 結合表現行列を用いて、層単位での自己表現損失を最小化する。
(ii)クラスタリングの品質を高めるために、サブスペース構造ノルムを最適化する。
(iii)事前学習と微調整からなる多段階連続学習フレームワークを用いて、ハイパーパラメータチューニングなしで複数の正規化項を使用できる。
(四)ラベルなしで訓練を終了させる相対誤差に基づく自己停止機構を組み込んだもの
(v)は、事前知識に基づいて、学習された表現行列に先頭係数の固定数を保持する。
提案手法は,顔,数字,オブジェクトを表す6つのデータセットに対して評価する。
以上の結果から,本手法は最も優れた線形アポウチと競合する性能を維持しつつ,ケアファフィル調整したハイパーパラメータでほとんどの線形SCアルゴリズムより優れていたことが示唆された。
関連論文リスト
- Subspace Clustering on Incomplete Data with Self-Supervised Contrastive Learning [0.7161783472741748]
サブスペースクラスタリングは、低次元のサブスペースの結合にあるデータポイントをグループ化することを目的としている。
現在の手法では、完全に観測されたデータを仮定し、欠落したエントリを持つ現実世界のシナリオにおける有効性を制限している。
不完全なデータをクラスタリングするために設計されたContrastive Subspace Clustering (CSC)を提案する。
論文 参考訳(メタデータ) (2026-01-30T19:24:48Z) - Instance-Aware Robust Consistency Regularization for Semi-Supervised Nuclei Instance Segmentation [53.94176748542936]
本稿では、インスタンスレベルの正確な核分割のためのインスタンス対応ロバスト整合性正規化ネットワーク(IRCR-Net)を提案する。
病理画像に核形態学的な先行知識を取り入れ,これらの先行知識を用いてラベルのないデータから生成された擬似ラベルの品質を評価する。
論文 参考訳(メタデータ) (2025-10-10T12:32:32Z) - Hierarchical Self-Supervised Representation Learning for Depression Detection from Speech [51.14752758616364]
音声による抑うつ検出 (SDD) は、従来の臨床評価に代わる有望で非侵襲的な代替手段である。
HAREN-CTCは,マルチタスク学習フレームワーク内でのクロスアテンションを用いて,多層SSL機能を統合した新しいアーキテクチャである。
このモデルはDAIC-WOZで0.81、MODMAで0.82の最先端マクロF1スコアを達成し、両方の評価シナリオで先行手法より優れている。
論文 参考訳(メタデータ) (2025-10-05T09:32:12Z) - Clustering by Attention: Leveraging Prior Fitted Transformers for Data Partitioning [3.4530027457862005]
メタラーニングに基づく新しいクラスタリング手法を提案する。
我々は,クラスタリングを行うために事前学習したPFN(Predior-Data Fitted Transformer Network)を用いている。
我々の手法は最先端のクラスタリング技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-07-27T17:53:19Z) - Unbiased Max-Min Embedding Classification for Transductive Few-Shot Learning: Clustering and Classification Are All You Need [83.10178754323955]
わずかなショットラーニングにより、モデルがいくつかのラベル付き例から一般化できる。
本稿では,Unbiased Max-Min Embedding Classification (UMMEC)法を提案する。
本手法は最小ラベル付きデータを用いて分類性能を著しく向上させ, 注釈付きLの最先端化を推し進める。
論文 参考訳(メタデータ) (2025-03-28T07:23:07Z) - PRISM: Self-Pruning Intrinsic Selection Method for Training-Free Multimodal Data Selection [68.8373788348678]
ビジュアルインストラクションチューニングは、事前訓練されたマルチモーダル大言語モデルに人間の指示に従うように適応する。
PRISMは、効率的な視覚的命令選択のための最初のトレーニング不要のフレームワークである。
データ選択とモデルチューニングのエンドツーエンドの時間を従来のパイプラインの30%に短縮する。
論文 参考訳(メタデータ) (2025-02-17T18:43:41Z) - Revisiting Self-Supervised Heterogeneous Graph Learning from Spectral Clustering Perspective [52.662463893268225]
自己教師付きヘテロジニアスグラフ学習(SHGL)は様々なシナリオにおいて有望な可能性を示している。
既存のSHGLメソッドには2つの大きな制限がある。
ランクと二重整合性制約によって強化された新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-01T09:33:20Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Learning Prompt-Enhanced Context Features for Weakly-Supervised Video
Anomaly Detection [37.99031842449251]
弱い監督下での映像異常検出は重大な課題を呈する。
本稿では,効率的なコンテキストモデリングとセマンティック識別性の向上に焦点をあてた,弱教師付き異常検出フレームワークを提案する。
提案手法は,特定の異常なサブクラスの検出精度を大幅に向上させ,その実用的価値と有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-06-26T06:45:16Z) - Dynamic Clustering and Cluster Contrastive Learning for Unsupervised
Person Re-identification [29.167783500369442]
教師なしRe-ID手法は、ラベルのないデータから堅牢で差別的な特徴を学習することを目的としている。
本稿では,動的クラスタリングとクラスタコントラスト学習(DCCC)手法を提案する。
提案したDCCCの有効性を検証するために, 広く利用されている複数の公開データセットの実験を行った。
論文 参考訳(メタデータ) (2023-03-13T01:56:53Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - A Deep Dive into Deep Cluster [0.2578242050187029]
DeepClusterは、ビジュアル表現のシンプルでスケーラブルな教師なし事前トレーニングである。
本稿では,DeepClusterの収束と性能が,畳み込み層のランダムフィルタの品質と選択されたクラスタ数の相互作用に依存することを示す。
論文 参考訳(メタデータ) (2022-07-24T22:55:09Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Unsupervised learning of disentangled representations in deep restricted
kernel machines with orthogonality constraints [15.296955630621566]
Constr-DRKMは、非教師なしデータ表現の学習のためのディープカーネル手法である。
本研究では,不整合特徴学習における提案手法の有効性を定量的に評価する。
論文 参考訳(メタデータ) (2020-11-25T11:40:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。