論文の概要: SuperCM: Improving Semi-Supervised Learning and Domain Adaptation through differentiable clustering
- arxiv url: http://arxiv.org/abs/2507.13779v1
- Date: Fri, 18 Jul 2025 09:42:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.247506
- Title: SuperCM: Improving Semi-Supervised Learning and Domain Adaptation through differentiable clustering
- Title(参考訳): SuperCM: クラスタリングによる半教師付き学習とドメイン適応の改善
- Authors: Durgesh Singh, Ahcène Boubekki, Robert Jenssen, Michael Kampffmeyer,
- Abstract要約: Semi-Supervised Learning (SSL) と Unsupervised Domain Adaptation (UDA) はラベル付きおよびラベルなしデータからの情報を活用することでモデル性能を向上させる。
最近の研究では、SSLとUDAのクラスタリング仮定を暗黙的に実施するために、異なるトレーニングメカニズムを活用している。
我々は、教師付きデータを利用してセントロイドを計算するために拡張された微分可能なクラスタリングモジュールを明示的に含み、異なるアプローチをとる。
- 参考スコア(独自算出の注目度): 17.761439828914636
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Semi-Supervised Learning (SSL) and Unsupervised Domain Adaptation (UDA) enhance the model performance by exploiting information from labeled and unlabeled data. The clustering assumption has proven advantageous for learning with limited supervision and states that data points belonging to the same cluster in a high-dimensional space should be assigned to the same category. Recent works have utilized different training mechanisms to implicitly enforce this assumption for the SSL and UDA. In this work, we take a different approach by explicitly involving a differentiable clustering module which is extended to leverage the supervised data to compute its centroids. We demonstrate the effectiveness of our straightforward end-to-end training strategy for SSL and UDA over extensive experiments and highlight its benefits, especially in low supervision regimes, both as a standalone model and as a regularizer for existing approaches.
- Abstract(参考訳): Semi-Supervised Learning (SSL) と Unsupervised Domain Adaptation (UDA) はラベル付きおよびラベルなしデータからの情報を活用することでモデル性能を向上させる。
クラスタリングの仮定は、限られた監督下での学習に有利であることが証明されており、高次元空間における同一クラスタに属するデータポイントは、同じカテゴリに割り当てられるべきであると述べている。
最近の研究では、SSLとUDAの仮定を暗黙的に強制するために、異なるトレーニングメカニズムを活用している。
本研究では、教師付きデータを活用してセントロイドを計算するために拡張された微分可能なクラスタリングモジュールを明示的に関与させることにより、異なるアプローチをとる。
SSLとUDAの直接的なエンドツーエンドのトレーニング戦略が広範な実験よりも有効であることを示し、特に独立したモデルや既存のアプローチの正規化手段としての低監督体制において、そのメリットを強調します。
関連論文リスト
- Supercm: Revisiting Clustering for Semi-Supervised Learning [12.324453023412142]
本研究では,半教師付き学習(SSL)の基盤となるクラスタリング仮定を明示的に取り入れた新しい手法を提案する。
我々は、アノテートされたデータを利用して、クラスタセントロイドの結果を単純なエンドツーエンドのトレーニング可能なディープSSLアプローチでガイドします。
提案したモデルでは,教師付きベースラインよりもパフォーマンスが向上し,他のSSLメソッドと組み合わせて,パフォーマンスをさらに向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-30T13:17:08Z) - Refining Filter Global Feature Weighting for Fully-Unsupervised Clustering [0.0]
教師なし学習では、効果的なクラスタリングが、ラベルのないデータからパターンや洞察を明らかにする上で重要な役割を果たす。
本稿では,クラスタリングのための特徴重み付けについて検討し,SHAP(SHapley Additive exPlanations)に基づく手法を含む新しい重み付け手法を提案する。
実験により、SHAPに基づく特徴重み付けは、教師なしクラスタリングの品質を高め、他の重み付け法よりも最大22.69%改善できることを示した。
論文 参考訳(メタデータ) (2025-03-12T13:14:09Z) - A Unified Framework for Heterogeneous Semi-supervised Learning [26.87757610311636]
Heterogeneous Semi-Supervised Learning (HSSL) と呼ばれる新しい問題設定を導入する。
HSSLは、半教師付き学習(SSL)タスクと教師なしドメイン適応(UDA)タスクをブリッジすることで、ユニークな課題を提示している。
本稿では,HSSLに対処するための新しい手法であるUnified Framework for Heterogeneous Semi-supervised Learning (Uni-HSSL)を提案する。
論文 参考訳(メタデータ) (2025-03-01T01:32:02Z) - Spatiotemporal Self-supervised Learning for Point Clouds in the Wild [65.56679416475943]
空間領域と時間領域の両方で正のペアを利用するSSL戦略を導入する。
2つの大規模LiDARデータセット上で,自己教師型トレーニングによって実施した広範囲な実験を通じて,このアプローチのメリットを実証する。
論文 参考訳(メタデータ) (2023-03-28T18:06:22Z) - Dynamic Clustering and Cluster Contrastive Learning for Unsupervised
Person Re-identification [29.167783500369442]
教師なしRe-ID手法は、ラベルのないデータから堅牢で差別的な特徴を学習することを目的としている。
本稿では,動的クラスタリングとクラスタコントラスト学習(DCCC)手法を提案する。
提案したDCCCの有効性を検証するために, 広く利用されている複数の公開データセットの実験を行った。
論文 参考訳(メタデータ) (2023-03-13T01:56:53Z) - IDA: Informed Domain Adaptive Semantic Segmentation [51.12107564372869]
クラスレベルのセグメンテーション性能に基づいてデータを混合する自己学習フレームワークであるDomain Informed Adaptation (IDA) モデルを提案する。
IDAモデルでは、クラスレベルの性能を期待信頼スコア(ECS)によって追跡し、動的スケジュールを用いて異なる領域のデータに対する混合比を決定する。
提案手法は,GTA-Vの都市景観への適応において1.1 mIoU,SynTHIAの都市への適応において0.9 mIoUのマージンで,最先端のUDA-SS法よりも優れる。
論文 参考訳(メタデータ) (2023-03-05T18:16:34Z) - Self-supervised Learning for Clustering of Wireless Spectrum Activity [0.16777183511743468]
実世界の未ラベルデータにおけるスペクトルの探索における自己教師あり学習(SSL)の利用について検討する。
抽出した特徴量やクラスタリング性能に関して,SSLモデルにより優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2022-09-22T11:19:49Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Generalized Zero-Shot Learning Via Over-Complete Distribution [79.5140590952889]
そこで本稿では,CVAE (Conditional Variational Autoencoder) を用いたOCD(Over-Complete Distribution) の生成を提案する。
フレームワークの有効性は,Zero-Shot LearningプロトコルとGeneralized Zero-Shot Learningプロトコルの両方を用いて評価する。
論文 参考訳(メタデータ) (2020-04-01T19:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。