論文の概要: Learning advisor networks for noisy image classification
- arxiv url: http://arxiv.org/abs/2211.04177v1
- Date: Tue, 8 Nov 2022 11:44:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 15:18:50.749486
- Title: Learning advisor networks for noisy image classification
- Title(参考訳): 雑音画像分類のための学習アドバイザネットワーク
- Authors: Simone Ricci, Tiberio Uricchio, Alberto Del Bimbo
- Abstract要約: 本稿では,画像分類におけるノイズラベルの問題に対処するためのアドバイザネットワークの概念を紹介する。
私たちはメタラーニング戦略でそれをトレーニングし、メインモデルのトレーニングを通じて適応できるようにしました。
我々はCIFAR10とCIFAR100を合成雑音で試験し,実環境雑音を含むCrothing1Mを用いて最先端の結果を報告する。
- 参考スコア(独自算出の注目度): 22.77447144331876
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduced the novel concept of advisor network to address
the problem of noisy labels in image classification. Deep neural networks (DNN)
are prone to performance reduction and overfitting problems on training data
with noisy annotations. Weighting loss methods aim to mitigate the influence of
noisy labels during the training, completely removing their contribution. This
discarding process prevents DNNs from learning wrong associations between
images and their correct labels but reduces the amount of data used, especially
when most of the samples have noisy labels. Differently, our method weighs the
feature extracted directly from the classifier without altering the loss value
of each data. The advisor helps to focus only on some part of the information
present in mislabeled examples, allowing the classifier to leverage that data
as well. We trained it with a meta-learning strategy so that it can adapt
throughout the training of the main model. We tested our method on CIFAR10 and
CIFAR100 with synthetic noise, and on Clothing1M which contains real-world
noise, reporting state-of-the-art results.
- Abstract(参考訳): 本稿では,画像分類における雑音ラベル問題に対処するために,アドバイザネットワークの新たな概念を提案する。
ディープニューラルネットワーク(DNN)は、ノイズの多いアノテーションでトレーニングデータにパフォーマンスの低下と過度に適合する傾向にある。
重み付け損失法は、トレーニング中のノイズラベルの影響を軽減し、貢献を完全に排除することを目的としている。
この破棄プロセスは、DNNが画像と正しいラベルの間違った関連を学習するのを防ぐが、特にほとんどのサンプルがノイズのあるラベルを持っている場合、使用されるデータの量を減らす。
異なる方法では,各データの損失値を変更することなく,分類器から直接抽出した特徴量を評価する。
アドバイザは、誤ってラベル付けされた例に存在する情報の一部のみに集中し、分類器がそのデータを活用するのに役立つ。
私たちはメタ学習戦略でトレーニングを行い、メインモデルのトレーニングを通じて適応できるようにしました。
我々はCIFAR10とCIFAR100を合成雑音で試験し,実環境雑音を含むCrothing1Mを用いて最先端の結果を報告する。
関連論文リスト
- ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Blind Knowledge Distillation for Robust Image Classification [19.668440671541546]
ブラインド知識蒸留(Blind Knowledge Distillation)は、ノイズラベルで学習する教師による学習方法である。
我々はOtsusアルゴリズムを用いて、一般化からオーバーフィッティングまでのチップポイントを推定する。
実験では, Blind Knowledge Distillation がトレーニング中の過剰適合を効果的に検出することを示した。
論文 参考訳(メタデータ) (2022-11-21T11:17:07Z) - Synergistic Network Learning and Label Correction for Noise-robust Image
Classification [28.27739181560233]
ディープニューラルネットワーク(DNN)は、トレーニングラベルノイズに過度に適合する傾向があるため、実際のモデルパフォーマンスは低下する。
損失選択と雑音補正のアイデアを組み合わせたロバストなラベル補正フレームワークを提案する。
ノイズタイプやレートの異なる合成および実世界のデータセット上で,本手法を実証する。
論文 参考訳(メタデータ) (2022-02-27T23:06:31Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - Learning from Noisy Labels with Noise Modeling Network [7.523041606515877]
ノイズモデリングネットワーク(NMN)は、私たちの畳み込みニューラルネットワーク(CNN)に従い、それを統合します。
NMNはノイズデータから直接ノイズパターンの分布を学習する。
統合NMN/CNN学習システムでは,一貫した分類性能の向上が期待できる。
論文 参考訳(メタデータ) (2020-05-01T20:32:22Z) - Improving Generalization by Controlling Label-Noise Information in
Neural Network Weights [33.85101318266319]
ノイズや誤ったラベルが存在する場合、ニューラルネットワークはノイズに関する情報を記憶する好ましくない傾向にある。
ドロップアウト、ウェイト崩壊、データ増大といった標準的な正則化技術は、時折役立つが、そのような振舞いを防げない。
任意のトレーニングアルゴリズムに対して、この項の低値はラベルノイズの記憶の減少とより良い境界の減少に対応していることを示す。
論文 参考訳(メタデータ) (2020-02-19T00:08:30Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。