論文の概要: An Adaptor for Triggering Semi-Supervised Learning to Out-of-Box Serve Deep Image Clustering
- arxiv url: http://arxiv.org/abs/2509.20976v1
- Date: Thu, 25 Sep 2025 10:21:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.835431
- Title: An Adaptor for Triggering Semi-Supervised Learning to Out-of-Box Serve Deep Image Clustering
- Title(参考訳): 深層画像クラスタリングのための半スーパービジョン学習のための適応器
- Authors: Yue Duan, Lei Qi, Yinghuan Shi, Yang Gao,
- Abstract要約: ASDは、SSL学習者のコールドスタートを前提条件にすることなく、ディープイメージクラスタリングを可能にするアダプタである。
最新のディープ・イメージ・クラスタリング・アプローチに対して,各種ベンチマークにおけるASDの優れた性能を示す。
- 参考スコア(独自算出の注目度): 52.15903983661315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, some works integrate SSL techniques into deep clustering frameworks to enhance image clustering performance. However, they all need pretraining, clustering learning, or a trained clustering model as prerequisites, limiting the flexible and out-of-box application of SSL learners in the image clustering task. This work introduces ASD, an adaptor that enables the cold-start of SSL learners for deep image clustering without any prerequisites. Specifically, we first randomly sample pseudo-labeled data from all unlabeled data, and set an instance-level classifier to learn them with semantically aligned instance-level labels. With the ability of instance-level classification, we track the class transitions of predictions on unlabeled data to extract high-level similarities of instance-level classes, which can be utilized to assign cluster-level labels to pseudo-labeled data. Finally, we use the pseudo-labeled data with assigned cluster-level labels to trigger a general SSL learner trained on the unlabeled data for image clustering. We show the superior performance of ASD across various benchmarks against the latest deep image clustering approaches and very slight accuracy gaps compared to SSL methods using ground-truth, e.g., only 1.33% on CIFAR-10. Moreover, ASD can also further boost the performance of existing SSL-embedded deep image clustering methods.
- Abstract(参考訳): 最近、画像クラスタリングのパフォーマンスを向上させるために、SSLテクニックをディープクラスタリングフレームワークに統合する研究もある。
しかし、いずれも事前トレーニング、クラスタリング学習、あるいはトレーニングされたクラスタリングモデルを前提条件として必要としており、イメージクラスタリングタスクにおけるSSL学習者のフレキシブルでアウトオブボックスなアプリケーションを制限する。
ASDは、SSL学習者のコールドスタートを前提条件のないディープイメージクラスタリングに可能にするアダプタである。
具体的には、まず、すべての未ラベルデータから擬似ラベル付きデータをランダムにサンプリングし、インスタンスレベルの分類器を設定して、意味的に整合したインスタンスレベルのラベルで学習する。
インスタンスレベルの分類機能により、未ラベルデータに基づく予測のクラス遷移を追跡し、クラスタレベルのラベルを擬ラベルデータに割り当てるために使用できる、インスタンスレベルのクラスの高レベルな類似性を抽出する。
最後に、疑似ラベル付きデータに割り当てられたクラスタレベルのラベルを付けて、イメージクラスタリングのために未ラベルのデータに基づいて訓練された一般SSL学習者をトリガーする。
我々は,最新の深層画像クラスタリング手法と比較して,各種ベンチマークにおけるASDの優れた性能を示し,CIFAR-10では1.33%に過ぎなかった。
さらに、ASDは既存のSSL組み込みのディープイメージクラスタリングメソッドのパフォーマンスをさらに向上させることができる。
関連論文リスト
- ESMC: MLLM-Based Embedding Selection for Explainable Multiple Clustering [79.69917150582633]
MLLM(Multi-modal large language model)は、ユーザ主導のクラスタリングを実現するために利用することができる。
本手法はまず,MLLMのテキストトークンの隠蔽状態が対応する特徴と強く関連していることを明らかにする。
また、擬似ラベル学習を付加した軽量クラスタリングヘッドを採用し、クラスタリング精度を大幅に向上させた。
論文 参考訳(メタデータ) (2025-11-30T04:36:51Z) - Unsupervised Image Classification with Adaptive Nearest Neighbor Selection and Cluster Ensembles [9.338965648455238]
教師なし画像分類は、ラベルのない画像を意味のあるカテゴリに分類することを目的としている。
ICCEは、ImageNet上で70%を超える精度を持つ、教師なしのイメージ分類法である。
CIFAR10では99.3%、CIFAR100では89%、ImageNetデータセットでは70.4%である。
論文 参考訳(メタデータ) (2025-11-20T10:34:56Z) - Multi-label Cluster Discrimination for Visual Representation Learning [27.552024985952166]
本稿では,表現学習を強化するため,MLCDと呼ばれる新しいマルチラベルクラスタ識別手法を提案する。
本手法は,線形プローブ,ゼロショット分類,画像テキスト検索など,複数の下流タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-24T14:54:16Z) - A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - Generalized Category Discovery with Clustering Assignment Consistency [56.92546133591019]
一般化圏発見(GCD)は、最近提案されたオープンワールドタスクである。
クラスタリングの一貫性を促進するための協調学習ベースのフレームワークを提案する。
提案手法は,3つの総合的なベンチマークと3つのきめ細かい視覚認識データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-30T00:32:47Z) - Learning Semi-supervised Gaussian Mixture Models for Generalized
Category Discovery [36.01459228175808]
本稿では,表現学習とクラス数推定を交互に行うEMライクなフレームワークを提案する。
汎用画像分類データセットと細粒度オブジェクト認識データセットの双方について,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-05-10T13:47:38Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - STAR: Noisy Semi-Supervised Transfer Learning for Visual Classification [0.8662293148437356]
半教師付き学習(SSL)は、大規模なラベルなしデータの活用に有効であることが証明されている。
最近のSSLメソッドは、数十億のスケールでラベル付けされていないイメージデータに依存している。
本稿では,移動学習と自己学習を統合した半教師あり半教師ありトランスファー学習を提案する。
論文 参考訳(メタデータ) (2021-08-18T19:35:05Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Generative Multi-Label Zero-Shot Learning [136.17594611722285]
マルチラベルゼロショット学習は、トレーニング中にデータが入手できない複数の見えないカテゴリにイメージを分類する試みである。
我々の研究は、(一般化された)ゼロショット設定におけるマルチラベル機能の問題に最初に取り組みました。
私たちのクロスレベル核融合に基づく生成アプローチは、3つのデータセットすべてにおいて最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-01-27T18:56:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。