論文の概要: SplitNet: Learnable Clean-Noisy Label Splitting for Learning with Noisy
Labels
- arxiv url: http://arxiv.org/abs/2211.11753v1
- Date: Sun, 20 Nov 2022 08:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:46:47.964587
- Title: SplitNet: Learnable Clean-Noisy Label Splitting for Learning with Noisy
Labels
- Title(参考訳): splitnet: ノイズラベルを用いた学習のためのクリーンノイズラベル分割
- Authors: Daehwan Kim, Kwangrok Ryoo, Hansang Cho, Seungryong Kim
- Abstract要約: 本研究では、SplitNetと呼ばれるクリーンノイズラベル分割のための学習可能なモジュールと、Noisy Labelsフレームワークによる学習について述べる。
提案手法は, 各種LNLベンチマークにおいて, 特に高雑音比設定において, 最先端で動作する。
- 参考スコア(独自算出の注目度): 27.782150368174413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Annotating the dataset with high-quality labels is crucial for performance of
deep network, but in real world scenarios, the labels are often contaminated by
noise. To address this, some methods were proposed to automatically split clean
and noisy labels, and learn a semi-supervised learner in a Learning with Noisy
Labels (LNL) framework. However, they leverage a handcrafted module for
clean-noisy label splitting, which induces a confirmation bias in the
semi-supervised learning phase and limits the performance. In this paper, we
for the first time present a learnable module for clean-noisy label splitting,
dubbed SplitNet, and a novel LNL framework which complementarily trains the
SplitNet and main network for the LNL task. We propose to use a dynamic
threshold based on a split confidence by SplitNet to better optimize
semi-supervised learner. To enhance SplitNet training, we also present a risk
hedging method. Our proposed method performs at a state-of-the-art level
especially in high noise ratio settings on various LNL benchmarks.
- Abstract(参考訳): データセットに高品質なラベルを付けることはディープネットワークのパフォーマンスに不可欠だが、現実のシナリオでは、ラベルはしばしばノイズによって汚染される。
これを解決するために、クリーンでノイズの多いラベルを自動的に分割し、セミ教師付き学習者をLNL(Learning with Noisy Labels)フレームワークで学習する手法が提案された。
しかし,半教師あり学習フェーズで確認バイアスを生じさせ,性能を制限した,クリーンノイズラベル分割のための手作りモジュールを活用する。
本稿では,スプリットネットと呼ばれるクリーンノイズラベル分割のための学習可能なモジュールと,スプリットネットとLNLタスクのメインネットワークを補完的にトレーニングする新しいLNLフレームワークを初めて提示する。
半教師付き学習者を最適化するために,splitnetによる分割信頼度に基づく動的しきい値を用いることを提案する。
SplitNetトレーニングを強化するために,リスクヘッジ手法を提案する。
提案手法は, 各種LNLベンチマークにおいて, 特に高雑音比設定において, 最先端で動作する。
関連論文リスト
- FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels [99.70895640578816]
雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
論文 参考訳(メタデータ) (2023-12-19T15:46:47Z) - Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - Combating Label Noise With A General Surrogate Model For Sample Selection [77.45468386115306]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Robust Point Cloud Segmentation with Noisy Annotations [32.991219357321334]
クラスラベルは、実世界のデータセットのインスタンスレベルとバウンダリレベルの両方で誤ってラベル付けされることが多い。
我々は、Point Noise-Adaptive Learningフレームワークを提案することで、インスタンスレベルのラベルノイズを解決するのをリードする。
我々のフレームワークはベースラインを大幅に上回り、完全にクリーンなデータでトレーニングされた上限に匹敵する。
論文 参考訳(メタデータ) (2022-12-06T18:59:58Z) - CrossSplit: Mitigating Label Noise Memorization through Data Splitting [25.344386272010397]
そこで我々はCrossSplitと呼ばれるノイズラベルの記憶を緩和するための新しいトレーニング手法を提案する。
CIFAR-10, CIFAR-100, Tiny-ImageNet, およびmini-WebVisionデータセットを用いた実験により, 本手法は幅広いノイズ比において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-03T19:09:56Z) - On the Soft-Subnetwork for Few-shot Class Incremental Learning [67.0373924836107]
本稿では,emphSoft-SubNetworks (SoftNet) と呼ばれる数発のクラスインクリメンタルラーニング(FSCIL)手法を提案する。
私たちの目的はセッションの連続を漸進的に学習することであり、各セッションは、以前に学習したセッションの知識を保持しながら、クラス毎にいくつかのトレーニングインスタンスのみを含む。
我々は、ベンチマークデータセットよりも最先端のベースラインのパフォーマンスを超越して、SoftNetが数発のインクリメンタル学習問題に効果的に取り組むことを示す、総合的な実証検証を提供する。
論文 参考訳(メタデータ) (2022-09-15T04:54:02Z) - ALASCA: Rethinking Label Smoothing for Deep Learning Under Label Noise [10.441880303257468]
サブCl-アシファイア(ALASCA)上でのアダプティブラーベル平滑化(Adaptive LAbel smoothing)という枠組みを提案する。
ラベル平滑化(LS)は暗黙のリプシッツ正則化(LR)を引き起こすことが示唆された。
これらの導出に基づいて、中間層に適応LRを実用的に適用するために、適応LS(ALS)をサブクラス化アーキテクチャに適用する。
論文 参考訳(メタデータ) (2022-06-15T03:37:51Z) - Synergistic Network Learning and Label Correction for Noise-robust Image
Classification [28.27739181560233]
ディープニューラルネットワーク(DNN)は、トレーニングラベルノイズに過度に適合する傾向があるため、実際のモデルパフォーマンスは低下する。
損失選択と雑音補正のアイデアを組み合わせたロバストなラベル補正フレームワークを提案する。
ノイズタイプやレートの異なる合成および実世界のデータセット上で,本手法を実証する。
論文 参考訳(メタデータ) (2022-02-27T23:06:31Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Co-Seg: An Image Segmentation Framework Against Label Corruption [8.219887855003648]
改良されたディープラーニングのパフォーマンスは、トレーニングのための高品質なラベルの可用性に強く結びついている。
我々は,低品質なノイズラベルを含むデータセット上でセグメンテーションネットワークを協調的に学習する新しいフレームワーク,Co-Segを提案する。
我々のフレームワークはどんなセグメンテーションアルゴリズムでも容易に実装でき、ノイズの多いラベルへのロバスト性を高めることができる。
論文 参考訳(メタデータ) (2021-01-31T20:01:40Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。