論文の概要: Ghost Loss to Question the Reliability of Training Data
- arxiv url: http://arxiv.org/abs/2109.01504v1
- Date: Fri, 3 Sep 2021 13:24:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-06 13:57:07.485196
- Title: Ghost Loss to Question the Reliability of Training Data
- Title(参考訳): 訓練データの信頼性に疑問を呈するゴーストロス
- Authors: Adrien Deli\`ege, Anthony Cioppa, Marc Van Droogenbroeck
- Abstract要約: 監督された画像分類問題は、正しく注釈付けされたと思われるトレーニングデータに依存する。
本稿では,いくつかの予測値に対して決定論的にゼロ化される正規損失とみなすゴーストロスの概念を導入する。
ゴーストロス原理を用いて、よく知られたトレーニングデータセットにおいて、紛らわしい画像と誤ってラベル付けされた画像を検出する。
- 参考スコア(独自算出の注目度): 13.151489924573076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised image classification problems rely on training data assumed to
have been correctly annotated; this assumption underpins most works in the
field of deep learning. In consequence, during its training, a network is
forced to match the label provided by the annotator and is not given the
flexibility to choose an alternative to inconsistencies that it might be able
to detect. Therefore, erroneously labeled training images may end up
``correctly'' classified in classes which they do not actually belong to. This
may reduce the performances of the network and thus incite to build more
complex networks without even checking the quality of the training data. In
this work, we question the reliability of the annotated datasets. For that
purpose, we introduce the notion of ghost loss, which can be seen as a regular
loss that is zeroed out for some predicted values in a deterministic way and
that allows the network to choose an alternative to the given label without
being penalized. After a proof of concept experiment, we use the ghost loss
principle to detect confusing images and erroneously labeled images in
well-known training datasets (MNIST, Fashion-MNIST, SVHN, CIFAR10) and we
provide a new tool, called sanity matrix, for summarizing these confusions.
- Abstract(参考訳): 教師付き画像分類問題は、正しく注釈付けされたと仮定されたトレーニングデータに依存しており、この仮定はディープラーニングの分野における多くの研究の基盤となっている。
その結果、トレーニング中にネットワークはアノテータが提供するラベルにマッチせざるを得なくなり、検出可能な不整合に代わる選択肢を選択する柔軟性は与えられない。
したがって、誤ってラベル付けされたトレーニングイメージは、実際には属していないクラスに分類された '`correctly'' になる可能性がある。
これにより、ネットワークのパフォーマンスが低下し、トレーニングデータの品質をチェックせずに、より複雑なネットワークを構築することができる。
本研究では,アノテーション付きデータセットの信頼性に疑問を呈する。
そこで本稿では, ある予測値に対して, 決定論的にゼロ化され, ペナル化されることなく, ネットワークが与えられたラベルの代替を選択できるような, 通常の損失と見なせるゴーストロスの概念を導入する。
概念実証実験の後, よく知られたトレーニングデータセット (MNIST, Fashion-MNIST, SVHN, CIFAR10) において, 紛らわしい画像や誤ってラベル付けされた画像を検出するためにゴーストロス原理を用い, それらの混乱を要約するための新たなツールであるサニティマトリックスを提供する。
関連論文リスト
- SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Decoupling the Class Label and the Target Concept in Machine Unlearning [81.69857244976123]
機械学習の目的は、トレーニングデータの一部を除外した再トレーニングされたモデルを近似するために、トレーニングされたモデルを調整することだ。
過去の研究では、クラスワイド・アンラーニングが対象クラスの知識を忘れることに成功していることが示された。
我々は、TARget-aware Forgetting (TARF) という一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-12T14:53:30Z) - FourierLoss: Shape-Aware Loss Function with Fourier Descriptors [1.5659201748872393]
この研究は、FourierLossという新しい形状認識損失関数を導入しました。
これは、地上の真実と予測されたセグメンテーションマップの間の形状の相違に依拠し、それらのオブジェクト上で計算されたフーリエ記述子を通し、ネットワークトレーニングにおけるこの相違を罰する。
提案した形状認識損失関数が肝セグメンテーションに有意な有意な有意な成績を示した。
論文 参考訳(メタデータ) (2023-09-21T14:23:10Z) - Incorporating Semi-Supervised and Positive-Unlabeled Learning for
Boosting Full Reference Image Quality Assessment [73.61888777504377]
フル参照(FR)画像品質評価(IQA)は、その知覚的差異をプリズム品質基準で測定することにより、歪み画像の視覚的品質を評価する。
ラベルなしデータは、画像劣化または復元プロセスから容易に収集することができ、ラベルなしのトレーニングデータを利用してFR-IQA性能を高めることを奨励する。
本稿では, 半教師付き, 正の未ラベル学習(PU)を用いて, ラベルなしデータを活用し, オフレーヤの悪影響を軽減することを提案する。
論文 参考訳(メタデータ) (2022-04-19T09:10:06Z) - Synergistic Network Learning and Label Correction for Noise-robust Image
Classification [28.27739181560233]
ディープニューラルネットワーク(DNN)は、トレーニングラベルノイズに過度に適合する傾向があるため、実際のモデルパフォーマンスは低下する。
損失選択と雑音補正のアイデアを組み合わせたロバストなラベル補正フレームワークを提案する。
ノイズタイプやレートの異なる合成および実世界のデータセット上で,本手法を実証する。
論文 参考訳(メタデータ) (2022-02-27T23:06:31Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - Switching Loss for Generalized Nucleus Detection in Histopathology [1.8251485068161968]
本稿では,前景クラスと背景クラスとの強調を適応的にシフトするスイッチングロス関数を提案する。
ソースデータセットで提案された損失関数を用いてトレーニングされた核検出器は、クロスエントロピー、ディース、焦点損失を使用してトレーニングされたものよりも優れていた。
論文 参考訳(メタデータ) (2020-08-09T15:42:50Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z) - Extreme Consistency: Overcoming Annotation Scarcity and Domain Shifts [2.707399740070757]
教師付き学習は医用画像解析に有効であることが証明された。
これは小さなラベル付きデータのみを利用することができる。
医療画像データセットでよく見られる大量のラベルのないデータを活用するのに失敗する。
論文 参考訳(メタデータ) (2020-04-15T15:32:01Z) - Unsupervised Person Re-identification via Softened Similarity Learning [122.70472387837542]
人物再識別(re-ID)はコンピュータビジョンにおいて重要なトピックである。
本稿では,ラベル付き情報を必要としないre-IDの教師なし設定について検討する。
2つの画像ベースおよびビデオベースデータセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-04-07T17:16:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。