論文の概要: Sharpness-aware Dynamic Anchor Selection for Generalized Category Discovery
- arxiv url: http://arxiv.org/abs/2512.12925v1
- Date: Mon, 15 Dec 2025 02:24:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.507519
- Title: Sharpness-aware Dynamic Anchor Selection for Generalized Category Discovery
- Title(参考訳): 一般化カテゴリー探索のためのシャープネスを考慮した動的アンカー選択
- Authors: Zhimao Peng, Enguang Wang, Fei Yang, Xialei Liu, Ming-Ming Cheng,
- Abstract要約: 既知のクラスのラベル付きデータを考えると、GCDは既知のクラスと未知のクラスの両方を含むラベルなしデータをクラスタ化することを目的としている。
大規模な事前学習モデルでは、特定の視覚的パターンが好まれ、ラベルのないデータに対して刺激的な相関を符号化する。
LSP(Los Sharpness Penalty)とDAS(Dynamic Anchor Selection)の2つのモジュールを含む新しい手法を提案する。
- 参考スコア(独自算出の注目度): 61.694524826522205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalized category discovery (GCD) is an important and challenging task in open-world learning. Specifically, given some labeled data of known classes, GCD aims to cluster unlabeled data that contain both known and unknown classes. Current GCD methods based on parametric classification adopt the DINO-like pseudo-labeling strategy, where the sharpened probability output of one view is used as supervision information for the other view. However, large pre-trained models have a preference for some specific visual patterns, resulting in encoding spurious correlation for unlabeled data and generating noisy pseudo-labels. To address this issue, we propose a novel method, which contains two modules: Loss Sharpness Penalty (LSP) and Dynamic Anchor Selection (DAS). LSP enhances the robustness of model parameters to small perturbations by minimizing the worst-case loss sharpness of the model, which suppressing the encoding of trivial features, thereby reducing overfitting of noise samples and improving the quality of pseudo-labels. Meanwhile, DAS selects representative samples for the unknown classes based on KNN density and class probability during the model training and assigns hard pseudo-labels to them, which not only alleviates the confidence difference between known and unknown classes but also enables the model to quickly learn more accurate feature distribution for the unknown classes, thus further improving the clustering accuracy. Extensive experiments demonstrate that the proposed method can effectively mitigate the noise of pseudo-labels, and achieve state-of-the-art results on multiple GCD benchmarks.
- Abstract(参考訳): 一般カテゴリー発見(GCD)は,オープンワールド学習において重要かつ困難な課題である。
具体的には、既知のクラスのラベル付きデータを考えると、GCDは既知のクラスと未知のクラスの両方を含むラベルなしデータをクラスタ化することを目的としている。
パラメトリック分類に基づく現在のGCD手法では、DINOのような擬似ラベル方式が採用されている。
しかし、大きな事前学習されたモデルは特定の視覚パターンを好むため、ラベルのないデータに対して急激な相関を符号化し、ノイズのある擬似ラベルを生成する。
この問題に対処するため,Loss Sharpness Penalty (LSP) と Dynamic Anchor Selection (DAS) の2つのモジュールを含む新しい手法を提案する。
LSPは、自明な特徴の符号化を抑制し、ノイズサンプルの過度な適合を低減し、擬似ラベルの品質を向上させるモデルの最悪の損失シャープネスを最小化することにより、モデルのパラメータのロバスト性を小さな摂動に拡張する。
一方、DASは、モデルトレーニング中にKNN密度とクラス確率に基づいて未知クラスの代表サンプルを選択し、それらにハードな擬似ラベルを割り当て、既知のクラスと未知クラスの信頼性差を緩和するだけでなく、未知クラスのより正確な特徴分布を迅速に学習し、クラスタリング精度を向上させる。
実験により,提案手法は擬似ラベルのノイズを効果的に軽減し,複数のGCDベンチマークで最先端の結果が得られることを示した。
関連論文リスト
- Mitigating Instance-Dependent Label Noise: Integrating Self-Supervised Pretraining with Pseudo-Label Refinement [3.272177633069322]
実世界のデータセットは、アノテーションプロセス中にヒューマンエラー、あいまいさ、リソース制約のために、ノイズの多いラベルを含むことが多い。
そこで本研究では,SimCLRを用いた自己教師型学習と反復的擬似ラベル改良を組み合わせた新しいフレームワークを提案する。
提案手法は,特に高騒音条件下では,いくつかの最先端手法よりも優れる。
論文 参考訳(メタデータ) (2024-12-06T09:56:49Z) - Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Fusing Conditional Submodular GAN and Programmatic Weak Supervision [5.300742881753571]
PWS(Programmatic Weak Supervision)と生成モデルは、データ収集や手動のアノテーションプロセスに頼ることなく、既存のデータセットの有用性を最大化する重要なツールとして機能する。
PWSは、データの基礎となるクラスラベルを推定するために様々な弱い監視技術を使用し、生成モデルは、主に与えられたデータセットの基盤分布からのサンプリングに集中する。
最近、WSGANは2つのモデルを融合させるメカニズムを提案した。
論文 参考訳(メタデータ) (2023-12-16T07:49:13Z) - NorMatch: Matching Normalizing Flows with Discriminative Classifiers for
Semi-Supervised Learning [8.749830466953584]
Semi-Supervised Learning (SSL)は、小さなラベル付きセットと大量のラベルなしデータを使ってモデルを学習することを目的としている。
この作業では、NorMatchというSSLの新しいフレームワークを紹介します。
数値的および視覚的な結果を通して、NorMatchはいくつかのデータセットで最先端のパフォーマンスを達成することを実証する。
論文 参考訳(メタデータ) (2022-11-17T15:39:18Z) - Instance-Dependent Noisy Label Learning via Graphical Modelling [30.922188228545906]
ディープラーニングのエコシステムでは、モデルが簡単に過度に適合できるため、ノイズの多いラベルは厄介です。
本稿では、識別モデルと生成モデルを組み合わせた、インスタンスGMと呼ばれる新しいグラフィカルモデリング手法を提案する。
論文 参考訳(メタデータ) (2022-09-02T09:27:37Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Delving Deep into Label Smoothing [112.24527926373084]
ディープニューラルネットワーク(DNN)の効果的な正規化ツールとしてのラベル平滑化
対象カテゴリのモデル予測の統計に基づいてソフトラベルを生成するオンラインラベル平滑化(OLS)戦略を提案する。
論文 参考訳(メタデータ) (2020-11-25T08:03:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。