論文の概要: Instance Correction for Learning with Open-set Noisy Labels
- arxiv url: http://arxiv.org/abs/2106.00455v1
- Date: Tue, 1 Jun 2021 13:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 14:12:55.842021
- Title: Instance Correction for Learning with Open-set Noisy Labels
- Title(参考訳): オープンセット雑音ラベルを用いた学習用インスタンス補正
- Authors: Xiaobo Xia, Tongliang Liu, Bo Han, Mingming Gong, Jun Yu, Gang Niu,
Masashi Sugiyama
- Abstract要約: オープンセットノイズラベルの処理にはサンプル選択方式を用いる。
廃棄されたデータは間違ったラベルで書かれており、トレーニングには参加していない。
廃棄されたデータのインスタンスを変更して、廃棄されたデータの予測をラベルに一致させる。
- 参考スコア(独自算出の注目度): 145.06552420999986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of open-set noisy labels denotes that part of training data have
a different label space that does not contain the true class. Lots of
approaches, e.g., loss correction and label correction, cannot handle such
open-set noisy labels well, since they need training data and test data to
share the same label space, which does not hold for learning with open-set
noisy labels. The state-of-the-art methods thus employ the sample selection
approach to handle open-set noisy labels, which tries to select clean data from
noisy data for network parameters updates. The discarded data are seen to be
mislabeled and do not participate in training. Such an approach is intuitive
and reasonable at first glance. However, a natural question could be raised
"can such data only be discarded during training?". In this paper, we show that
the answer is no. Specifically, we discuss that the instances of discarded data
could consist of some meaningful information for generalization. For this
reason, we do not abandon such data, but use instance correction to modify the
instances of the discarded data, which makes the predictions for the discarded
data consistent with given labels. Instance correction are performed by
targeted adversarial attacks. The corrected data are then exploited for
training to help generalization. In addition to the analytical results, a
series of empirical evidences are provided to justify our claims.
- Abstract(参考訳): オープンセットノイズラベルの問題は、トレーニングデータの一部が真のクラスを含まないラベル空間を持っていることを意味する。
オープンセットノイズラベルを学習するには、同じラベルスペースを共有するためのトレーニングデータとテストデータが必要であるため、例えば損失補正やラベル修正といった多くのアプローチでは、そのようなオープンセットノイズラベルをうまく処理できない。
したがって、最先端の手法では、サンプル選択アプローチを用いてオープンセットノイズラベルを処理し、ネットワークパラメータ更新のためにノイズデータからクリーンなデータを選択する。
廃棄されたデータは誤ってラベル付けされ、トレーニングに参加しない。
このようなアプローチは一見すると直感的で合理的です。
しかし、自然に「そのようなデータはトレーニング中にのみ破棄できるのか」という疑問を提起することができる。
本稿では,その答えがノーであることを示す。
具体的には、廃棄されたデータのインスタンスは、一般化のための有意義な情報から成り得ると論じる。
このため、そのようなデータを捨てるのではなく、破棄されたデータのインスタンスを変更するためにインスタンス修正を使用することで、廃棄されたデータの予測をラベルと一致させる。
インスタンス修正は、ターゲットの敵攻撃によって実行される。
修正されたデータは、一般化を支援するためにトレーニングに利用されます。
分析結果に加えて、我々の主張を正当化するための一連の実証的証拠が提供される。
関連論文リスト
- Imputation using training labels and classification via label imputation [4.387724419358174]
ラベルをインプットに積み重ねることで,インプットのインプットが大幅に向上することを示す。
また、予測されたテストラベルを欠落値で初期化し、インプットでラベルを積み重ねる分類戦略を提案する。
論文 参考訳(メタデータ) (2023-11-28T15:26:09Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - A Survey on Semi-Supervised Learning for Delayed Partially Labelled Data
Streams [10.370629574634092]
本調査は, 半教師付き環境で, 不正なデータを利用する手法に特に注意を払っている。
完全教師付き手法と半教師付き手法の両方に影響を及ぼす遅延ラベル問題について議論する。
論文 参考訳(メタデータ) (2021-06-16T23:14:20Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z) - Error-Bounded Correction of Noisy Labels [17.510654621245656]
ノイズのある分類器の予測は、トレーニングデータのラベルがクリーンかどうかを示す良い指標であることを示す。
理論的結果に基づいて,雑音分類器の予測に基づいてラベルを補正する新しいアルゴリズムを提案する。
ラベル補正アルゴリズムをディープニューラルネットワークのトレーニングや,複数の公開データセット上で優れたテスト性能を実現するトレーニングモデルに組み込む。
論文 参考訳(メタデータ) (2020-11-19T19:23:23Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。