論文の概要: DOST -- Domain Obedient Self-supervised Training for Multi Label
Classification with Noisy Labels
- arxiv url: http://arxiv.org/abs/2308.05101v1
- Date: Wed, 9 Aug 2023 17:53:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 12:44:29.448412
- Title: DOST -- Domain Obedient Self-supervised Training for Multi Label
Classification with Noisy Labels
- Title(参考訳): DOST -- 雑音ラベルを用いた多ラベル分類のためのドメイン従属型自己教師型トレーニング
- Authors: Soumadeep Saha, Utpal Garain, Arijit Ukil, Arpan Pal, Sundeep
Khandelwal
- Abstract要約: 本稿では,マルチラベル分類タスクにおけるドメインルール違反事象に対するラベルノイズの影響について検討する。
本稿では、ディープラーニングモデルとドメインルールとの整合性を高めるためのDomain Obedient Self-supervised Training(DOST)パラダイムを提案する。
- 参考スコア(独自算出の注目度): 27.696103256353254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The enormous demand for annotated data brought forth by deep learning
techniques has been accompanied by the problem of annotation noise. Although
this issue has been widely discussed in machine learning literature, it has
been relatively unexplored in the context of "multi-label classification" (MLC)
tasks which feature more complicated kinds of noise. Additionally, when the
domain in question has certain logical constraints, noisy annotations often
exacerbate their violations, making such a system unacceptable to an expert.
This paper studies the effect of label noise on domain rule violation incidents
in the MLC task, and incorporates domain rules into our learning algorithm to
mitigate the effect of noise. We propose the Domain Obedient Self-supervised
Training (DOST) paradigm which not only makes deep learning models more aligned
to domain rules, but also improves learning performance in key metrics and
minimizes the effect of annotation noise. This novel approach uses domain
guidance to detect offending annotations and deter rule-violating predictions
in a self-supervised manner, thus making it more "data efficient" and domain
compliant. Empirical studies, performed over two large scale multi-label
classification datasets, demonstrate that our method results in improvement
across the board, and often entirely counteracts the effect of noise.
- Abstract(参考訳): ディープラーニング技術によってもたらされる注釈データに対する膨大な需要は、アノテーションノイズの問題を伴っている。
この問題は機械学習の文献で広く議論されているが、より複雑なノイズを特徴とする「マルチラベル分類」(MLC)タスクの文脈では比較的研究されていない。
さらに、問題のあるドメインに一定の論理的制約がある場合、ノイズの多いアノテーションはしばしば違反を悪化させ、専門家には受け入れられないシステムになる。
本稿では, MLCタスクにおけるドメインルール違反事件に対するラベルノイズの影響について検討し, 学習アルゴリズムにドメインルールを取り入れ, ノイズの影響を軽減する。
本稿では,ディープラーニングモデルがドメインルールに合致するだけでなく,重要なメトリクスにおける学習性能を改善し,アノテーションノイズの影響を最小限に抑えるドメイン指向自己教師付きトレーニング(dost)パラダイムを提案する。
この新しいアプローチでは、ドメインガイダンスを使用して、不正なアノテーションを検出し、自己管理された方法でルール違反の予測を検知する。
2つの大規模マルチラベル分類データセットで実施した実証研究は,提案手法がボード全体に改善をもたらすことを示し,ノイズの影響を完全に否定する。
関連論文リスト
- SoftPatch: Unsupervised Anomaly Detection with Noisy Data [67.38948127630644]
本稿では,画像センサ異常検出におけるラベルレベルのノイズを初めて考察する。
本稿では,メモリベースの非教師付きAD手法であるSoftPatchを提案する。
既存の手法と比較して、SoftPatchは通常のデータの強力なモデリング能力を維持し、コアセットにおける過信問題を軽減する。
論文 参考訳(メタデータ) (2024-03-21T08:49:34Z) - Robust Tiny Object Detection in Aerial Images amidst Label Noise [50.257696872021164]
本研究は,ノイズラベル管理下での微小物体検出の問題に対処する。
本稿では,DN-TOD(Denoising Tiny Object Detector)を提案する。
本手法は,1段と2段の両方のオブジェクト検出パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2024-01-16T02:14:33Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Rethinking the Value of Labels for Instance-Dependent Label Noise
Learning [43.481591776038144]
実世界のアプリケーションにおけるノイズの多いラベルは、しばしば真のラベルと機能の両方に依存します。
本研究では、ノイズ遷移行列を明示的にモデル化しない新しい深層生成モデルを用いて、インスタンス依存ラベルノイズに対処する。
提案アルゴリズムは,カジュアルな表現学習を活用し,データから高レベルのコンテンツとスタイルの潜伏要素を同時に識別する。
論文 参考訳(メタデータ) (2023-05-10T15:29:07Z) - Noisy Annotation Refinement for Object Detection [47.066070566714984]
本稿では,クラスラベルとバウンディングボックスのアノテーションの絡み合った雑音を持つデータセット上でオブジェクト検出器を訓練する新たな問題設定を提案する。
提案手法は, 絡み合った雑音を効率よく分離し, ノイズを補正し, 修正したアノテーションを用いて検出器を訓練する。
論文 参考訳(メタデータ) (2021-10-20T09:39:50Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。