論文の概要: NGC: A Unified Framework for Learning with Open-World Noisy Data
- arxiv url: http://arxiv.org/abs/2108.11035v1
- Date: Wed, 25 Aug 2021 04:04:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 13:07:52.805799
- Title: NGC: A Unified Framework for Learning with Open-World Noisy Data
- Title(参考訳): NGC: オープンワールドノイズデータによる学習のための統一フレームワーク
- Authors: Zhi-Fan Wu, Tong Wei, Jianwen Jiang, Chaojie Mao, Mingqian Tang,
Yu-Feng Li
- Abstract要約: 本稿では,データの幾何学的構造とモデル予測信頼性を利用して,クリーンなサンプルを収集するグラフベースの新しいフレームワークであるNoisy Graph Cleaning(NGC)を提案する。
異なる種類のノイズを持つ複数のベンチマークで実験を行い、その結果、我々の手法の最先端性能を実証した。
- 参考スコア(独自算出の注目度): 36.96188289965334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The existence of noisy data is prevalent in both the training and testing
phases of machine learning systems, which inevitably leads to the degradation
of model performance. There have been plenty of works concentrated on learning
with in-distribution (IND) noisy labels in the last decade, i.e., some training
samples are assigned incorrect labels that do not correspond to their true
classes. Nonetheless, in real application scenarios, it is necessary to
consider the influence of out-of-distribution (OOD) samples, i.e., samples that
do not belong to any known classes, which has not been sufficiently explored
yet. To remedy this, we study a new problem setup, namely Learning with
Open-world Noisy Data (LOND). The goal of LOND is to simultaneously learn a
classifier and an OOD detector from datasets with mixed IND and OOD noise. In
this paper, we propose a new graph-based framework, namely Noisy Graph Cleaning
(NGC), which collects clean samples by leveraging geometric structure of data
and model predictive confidence. Without any additional training effort, NGC
can detect and reject the OOD samples based on the learned class prototypes
directly in testing phase. We conduct experiments on multiple benchmarks with
different types of noise and the results demonstrate the superior performance
of our method against state of the arts.
- Abstract(参考訳): ノイズの多いデータの存在は、機械学習システムのトレーニングとテストのフェーズの両方で一般的であり、必然的にモデル性能の低下につながる。
過去10年間、インディストリビューション(ind)ノイズラベルによる学習に集中した研究が数多く行われており、トレーニングサンプルの中には、真のクラスと一致しない不正確なラベルが割り当てられているものもある。
それにもかかわらず、実際のアプリケーションシナリオでは、まだ十分に調査されていない既知のクラスに属さないサンプル(out-of-distriion(OOD)サンプルの影響を検討する必要がある。
これを解決するために,オープンワールドノイズデータ(LOND)を用いた学習という,新たな問題設定について検討する。
LONDの目的は、INDとOODの混在したデータセットから分類器とOOD検出器を同時に学習することである。
本稿では,データの幾何学的構造とモデル予測信頼性を利用して,クリーンなサンプルを収集するグラフベースの新しいフレームワークであるNoisy Graph Cleaning(NGC)を提案する。
追加のトレーニングがなければ、NGCはテストフェーズで直接学習したクラスプロトタイプに基づいて、OODサンプルを検出し、拒否することができる。
異なる種類のノイズを持つ複数のベンチマークで実験を行い、その結果、我々の手法の最先端性能を実証した。
関連論文リスト
- An accurate detection is not all you need to combat label noise in web-noisy datasets [23.020126612431746]
分離した超平面の直接推定により,OOD試料の正確な検出が可能であることを示す。
本稿では,線形分離を用いた雑音検出とSOTA(State-of-the-art-the-loss)アプローチを交互に行うハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2024-07-08T00:21:42Z) - A noisy elephant in the room: Is your out-of-distribution detector robust to label noise? [49.88894124047644]
我々は、最先端のOOD検出方法20について詳しく検討する。
不正に分類されたIDサンプルとOODサンプルの分離が不十分であることを示す。
論文 参考訳(メタデータ) (2024-04-02T09:40:22Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - EARLIN: Early Out-of-Distribution Detection for Resource-efficient
Collaborative Inference [4.826988182025783]
協調推論により、リソース制約のあるエッジデバイスは、入力をサーバにアップロードすることで推論を行うことができる。
このセットアップは、成功した推論のためにコスト効率よく機能するが、モデルがトレーニングされていない入力サンプルに直面すると、非常にパフォーマンスが低下する。
我々は,事前訓練されたCNNモデルの浅い層から重要な特徴を抽出する,新しい軽量OOD検出手法を提案する。
論文 参考訳(メタデータ) (2021-06-25T18:43:23Z) - On The Consistency Training for Open-Set Semi-Supervised Learning [44.046578996049654]
我々は,OODサンプルが低次元空間と高次元空間のトレーニングに与える影響について検討した。
提案手法はOODサンプルをよりよく利用し,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-01-19T12:38:17Z) - Multi-Task Curriculum Framework for Open-Set Semi-Supervised Learning [54.85397562961903]
ラベル付きデータに制限がある場合に、ラベルなしデータを利用して強力なモデルをトレーニングする半教師付き学習(SSL)が提案されている。
我々は、Open-set SSLと呼ばれるより複雑な新しいシナリオに対処する。
提案手法は,OOD試料の効果を除去し,最先端の結果を得る。
論文 参考訳(メタデータ) (2020-07-22T10:33:55Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。