論文の概要: Prototype Fission: Closing Set for Robust Open-set Semi-supervised
Learning
- arxiv url: http://arxiv.org/abs/2308.15575v1
- Date: Tue, 29 Aug 2023 19:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 15:44:57.007373
- Title: Prototype Fission: Closing Set for Robust Open-set Semi-supervised
Learning
- Title(参考訳): プロトタイプフィッション:ロバストなオープンセットセミ教師付き学習のための閉集合
- Authors: Xuwei Tan, Yi-Jie Huang, Yaqian Li
- Abstract要約: 半教師なし学習(SSL)は、現実的な大規模教師なしデータセットにおいて、オフ・オブ・ディストリビューション(OOD)サンプルに対して脆弱であることが証明されている。
本稿では,クラスワイド潜在空間をコンパクトな部分空間に分割するPF(Prototype Fission)を提案する。
- 参考スコア(独自算出の注目度): 6.645479471664253
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Semi-supervised Learning (SSL) has been proven vulnerable to
out-of-distribution (OOD) samples in realistic large-scale unsupervised
datasets due to over-confident pseudo-labeling OODs as in-distribution (ID). A
key underlying problem is class-wise latent space spreading from closed seen
space to open unseen space, and the bias is further magnified in SSL's
self-training loops. To close the ID distribution set so that OODs are better
rejected for safe SSL, we propose Prototype Fission(PF) to divide class-wise
latent spaces into compact sub-spaces by automatic fine-grained latent space
mining, driven by coarse-grained labels only. Specifically, we form multiple
unique learnable sub-class prototypes for each class, optimized towards both
diversity and consistency. The Diversity Modeling term encourages samples to be
clustered by one of the multiple sub-class prototypes, while the Consistency
Modeling term clusters all samples of the same class to a global prototype.
Instead of "opening set", i.e., modeling OOD distribution, Prototype Fission
"closes set" and makes it hard for OOD samples to fit in sub-class latent
space. Therefore, PF is compatible with existing methods for further
performance gains. Extensive experiments validate the effectiveness of our
method in open-set SSL settings in terms of successfully forming sub-classes,
discriminating OODs from IDs and improving overall accuracy. Codes will be
released.
- Abstract(参考訳): 半教師付き学習(ssl)は、信頼できる疑似ラベル付きoods as in-distribution (id) のため、現実的な大規模教師なしデータセットにおいて、分散外(ood)サンプルに対して脆弱であることが証明されている。
鍵となる問題は、閉見える空間から見えない空間に広がるクラスワイドの潜伏空間であり、そのバイアスはSSLの自己学習ループでさらに拡大される。
安全なSSLのためにOODがよりよく拒否されるようにID分布セットを閉じるため、粗粒ラベルのみによって駆動される自動微粒化潜時空間マイニングにより、クラスワイド潜時空間をコンパクトなサブ空間に分割するプロトタイプフィッション(PF)を提案する。
具体的には、多様性と一貫性の両方に最適化された、各クラス用に複数の学習可能なサブクラスプロトタイプを作成します。
多様性モデリング用語は、複数のサブクラスのプロトタイプの1つでサンプルをクラスタ化することを奨励し、一貫性モデリング用語は、同じクラスのすべてのサンプルをグローバルプロトタイプにクラスタ化する。
開集合」ではなく、すなわち、OOD分布をモデル化し、プロトタイプフィッションを「閉集合」し、OODサンプルがサブクラス潜在空間に収まるのを難しくする。
したがって、PFはパフォーマンス向上のために既存のメソッドと互換性がある。
オープンセットSSL設定における提案手法の有効性を,サブクラスの生成,IDの識別,全体的な精度の向上の観点から検証した。
コードはリリースされる。
関連論文リスト
- Generalized Semi-Supervised Learning via Self-Supervised Feature Adaptation [87.17768598044427]
従来の半教師付き学習は、ラベル付きデータとラベルなしデータの特徴分布が一貫したものであると仮定する。
本稿では,ラベル付きおよびラベルなしデータの分散によるSSL性能向上のための汎用フレームワークであるセルフ・スーパービジョン・フィーチャー・アダプテーション(SSFA)を提案する。
提案するSSFAは擬似ラベルベースのSSL学習者に適用可能であり,ラベル付き,ラベルなし,さらには目に見えない分布における性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-31T03:13:45Z) - Exploration and Exploitation of Unlabeled Data for Open-Set
Semi-Supervised Learning [130.56124475528475]
半教師付き学習 (SSL) において, 未ラベルデータには, 内分布 (ID) と外分布 (OOD) の両方を含む, オープンセット SSL という複雑なシナリオに対処する。
提案手法は, 未ラベルデータにIDサンプルが完全に欠落している場合でも, 既存のSSL方式を改良する。
論文 参考訳(メタデータ) (2023-06-30T14:25:35Z) - Latent Distribution Adjusting for Face Anti-Spoofing [29.204168516602568]
フェース・アンチ・スプーフィング(FAS)モデルの堅牢性を改善するため,LDA(Latent Distribution Adjusting)と呼ばれる統一フレームワークを提案する。
クラス内コンパクト性とクラス間不一致性を高めるため,プロトタイプ学習のための分布制約を提供するためのマージンベース損失を提案する。
筆者らのフレームワークは,1)クラス内コンパクトおよびクラス間分離性の両方を最終表現空間とし,2)複数の標準FASベンチマークにおける最先端手法より優れる。
論文 参考訳(メタデータ) (2023-05-16T08:43:14Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - Deep Low-Density Separation for Semi-Supervised Classification [0.0]
組込み機能に低密度分離を適用した新しいハイブリッド手法を提案する。
本手法は,比較的少数の手作業分類例から,何千人もの未ラベルユーザを効果的に分類する。
論文 参考訳(メタデータ) (2022-05-22T11:00:55Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Multi-Class Data Description for Out-of-distribution Detection [25.853322158250435]
Deep-MCDDは、分布外(OOD)サンプルを検出するだけでなく、分布内(ID)サンプルを分類するのに効果的です。
ガウス微分分析の概念をディープニューラルネットワークに統合することにより,クラス条件分布を学習する深層学習目標を提案する。
論文 参考訳(メタデータ) (2021-04-02T08:41:51Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z) - From Anchor Generation to Distribution Alignment: Learning a
Discriminative Embedding Space for Zero-Shot Recognition [46.47620562161315]
ゼロショット学習(ZSL)では、分類されるサンプルは通常、属性などのサイド情報テンプレートに投影される。
我々は,DAGDA(Distriminative Anchor Generation and Distribution Alignment Model)と呼ばれる新しいフレームワークを提案する。
まず, 拡散型グラフ畳み込みネットワークを用いて, クラス情報と側情報の相互作用を明示的にモデル化し, 識別的アンカーを生成する手法を提案する。
第二に、アンカー空間におけるサンプルと対応するアンカーとをさらに整合させるため、細粒度に分布を洗練させることを目的として、意味的関係正則化を導入する。
論文 参考訳(メタデータ) (2020-02-10T05:25:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。