論文の概要: Drainage: A Unifying Framework for Addressing Class Uncertainty
- arxiv url: http://arxiv.org/abs/2512.03182v1
- Date: Tue, 02 Dec 2025 19:31:01 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 11:56:56.979622
- Title: Drainage: A Unifying Framework for Addressing Class Uncertainty
- Title(参考訳): Drainage: クラス不確実性に対処するための統一フレームワーク
- Authors: Yasser Taha, Grégoire Montavon, Nils Körber,
- Abstract要約: 本稿では,ネットワークの出力に付加する「排水ノード」の概念に基づく統一的なフレームワークを提案する。
このメカニズムは、非常に曖昧で異常なサンプル、またはノイズのあるサンプルに対する自然な脱出経路を提供する。
我々の定式化は, 高雑音下での既存手法に比べて最大9%の精度向上を実現している。
- 参考スコア(独自算出の注目度): 5.204620543649613
- License:
- Abstract: Modern deep learning faces significant challenges with noisy labels, class ambiguity, as well as the need to robustly reject out-of-distribution or corrupted samples. In this work, we propose a unified framework based on the concept of a "drainage node'' which we add at the output of the network. The node serves to reallocate probability mass toward uncertainty, while preserving desirable properties such as end-to-end training and differentiability. This mechanism provides a natural escape route for highly ambiguous, anomalous, or noisy samples, particularly relevant for instance-dependent and asymmetric label noise. In systematic experiments involving the addition of varying proportions of instance-dependent noise or asymmetric noise to CIFAR-10/100 labels, our drainage formulation achieves an accuracy increase of up to 9\% over existing approaches in the high-noise regime. Our results on real-world datasets, such as mini-WebVision, mini-ImageNet and Clothing-1M, match or surpass existing state-of-the-art methods. Qualitative analysis reveals a denoising effect, where the drainage neuron consistently absorbs corrupt, mislabeled, or outlier data, leading to more stable decision boundaries. Furthermore, our drainage formulation enables applications well beyond classification, with immediate benefits for web-scale, semi-supervised dataset cleaning, and open-set applications.
- Abstract(参考訳): 現代のディープラーニングは、ノイズの多いラベル、クラスあいまいさ、配布外または破損したサンプルを堅牢に拒否する必要性など、重大な課題に直面している。
本研究では,ネットワークの出力に付加する「排水ノード」の概念に基づく統一的なフレームワークを提案する。
このノードは確率質量を不確実性に向けて再配置し、エンドツーエンドのトレーニングや微分可能性といった望ましい特性を保っている。
このメカニズムは、非常にあいまいな、異常な、またはノイズの多いサンプル、特にインスタンス依存および非対称なラベルノイズに対する自然な逃避経路を提供する。
CIFAR-10/100ラベルに各種ノイズや非対称ノイズを付加する系統的な実験では,高雑音下での既存手法に比べて最大9倍の精度向上を実現している。
実世界のデータセットであるmini-WebVision, mini-ImageNet, Clothing-1Mは, 既存の最先端の手法と一致するか, 上回っている。
定性的分析は、排水ニューロンが常に腐敗、ラベルのずれ、または外れ値のデータを吸収し、より安定な決定境界をもたらす、妄想的な効果を示す。
さらに,Webスケール,半教師付きデータセットのクリーニング,オープンセットアプリケーションなどに即時メリットがあるので,分類以上のアプリケーションを可能にする。
関連論文リスト
- Semi-Supervised Regression with Heteroscedastic Pseudo-Labels [50.54050677867914]
両レベル最適化の観点から,疑似ラベルの影響を動的に調整する不確実性認識型擬似ラベル化フレームワークを提案する。
我々は、様々なベンチマークSSRデータセットにまたがって、我々のアプローチを検証するための理論的洞察と広範な実験を提供する。
論文 参考訳(メタデータ) (2025-10-17T03:06:23Z) - Machine Unlearning for Robust DNNs: Attribution-Guided Partitioning and Neuron Pruning in Noisy Environments [5.8166742412657895]
ディープニューラルネットワーク(DNN)は、さまざまなドメインで顕著な成功を収めているが、ノイズやトレーニングデータによってそのパフォーマンスが著しく低下する可能性がある。
本稿では,帰属誘導型データパーティショニング,識別的ニューロンプルーニング,およびノイズのあるサンプルの影響を軽減するための微調整を目的とした新しいフレームワークを提案する。
CIFAR-10の標準リトレーニングよりも約10%の絶対精度向上を実現し,ラベルノイズを注入した。
論文 参考訳(メタデータ) (2025-06-13T09:37:11Z) - Robust Representation Consistency Model via Contrastive Denoising [83.47584074390842]
ランダムな平滑化は、敵の摂動に対する堅牢性を証明する理論的保証を提供する。
拡散モデルは、ノイズ摂動サンプルを浄化するためにランダムな平滑化に成功している。
我々は,画素空間における拡散軌跡に沿った生成的モデリングタスクを,潜在空間における識別的タスクとして再構成する。
論文 参考訳(メタデータ) (2025-01-22T18:52:06Z) - An Embedding is Worth a Thousand Noisy Labels [0.11999555634662634]
本稿では,重み付けされたアダプティブNearest Neighborアプローチを用いてラベルノイズに対処するWANNを提案する。
WANNの参照手法は、様々な大きさの多様なデータセットや、様々なノイズタイプや重大さで優れていることを示す。
私たちのアプローチは、効率性と説明可能性を強調し、ディープニューラルネットワークトレーニングの固有の制限を克服するための、シンプルで堅牢なソリューションとして現れます。
論文 参考訳(メタデータ) (2024-08-26T15:32:31Z) - Training More Robust Classification Model via Discriminative Loss and Gaussian Noise Injection [7.535952418691443]
本稿では,クラス内コンパクト性を明示する最小層に適用した損失関数を提案する。
また、ノイズの多いデータクラスタをクリーンなクラスタに近づける、クラスワイズな機能アライメント機構を提案する。
提案手法は, クリーンなデータに対して高い精度を維持しながら, 各種摂動に対するモデルロバスト性を大幅に強化する。
論文 参考訳(メタデータ) (2024-05-28T18:10:45Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。