論文の概要: Making Every Label Count: Handling Semantic Imprecision by Integrating
Domain Knowledge
- arxiv url: http://arxiv.org/abs/2010.06469v1
- Date: Tue, 13 Oct 2020 15:21:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 23:01:53.758927
- Title: Making Every Label Count: Handling Semantic Imprecision by Integrating
Domain Knowledge
- Title(参考訳): すべてのラベル数を作る:ドメイン知識の統合による意味的不正確処理
- Authors: Clemens-Alexander Brust and Bj\"orn Barz and Joachim Denzler
- Abstract要約: Webからクロールしたり、ボランティアによって提供されたノイズの多いデータは、専門的なラベル付けされたデータに代わるものと考えられている。
我々はラベルノイズの付加的な次元:不正確さを考える。
階層分類に基づくCHILLAXを提案する。
- 参考スコア(独自算出の注目度): 7.2288756536476635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Noisy data, crawled from the web or supplied by volunteers such as Mechanical
Turkers or citizen scientists, is considered an alternative to professionally
labeled data. There has been research focused on mitigating the effects of
label noise. It is typically modeled as inaccuracy, where the correct label is
replaced by an incorrect label from the same set. We consider an additional
dimension of label noise: imprecision. For example, a non-breeding snow bunting
is labeled as a bird. This label is correct, but not as precise as the task
requires.
Standard softmax classifiers cannot learn from such a weak label because they
consider all classes mutually exclusive, which non-breeding snow bunting and
bird are not. We propose CHILLAX (Class Hierarchies for Imprecise Label
Learning and Annotation eXtrapolation), a method based on hierarchical
classification, to fully utilize labels of any precision.
Experiments on noisy variants of NABirds and ILSVRC2012 show that our method
outperforms strong baselines by as much as 16.4 percentage points, and the
current state of the art by up to 3.9 percentage points.
- Abstract(参考訳): ウェブからクロールされたり、メカニカル・ターカーや市民科学者などのボランティアによって提供されたノイズデータは、専門的にラベル付けされたデータに代わるものと考えられている。
ラベルノイズの影響を緩和する研究が行われている。
通常は不正確性としてモデル化され、正しいラベルは同じセットから間違ったラベルに置き換えられる。
我々はラベルノイズの付加次元:不正確さを考える。
例えば、非繁殖性の雪の束ねは鳥とラベル付けされる。
このラベルは正しいが、タスクが必要とするほど正確ではない。
標準的なソフトマックス分類器は、すべてのクラスが互いに排他的に排他的であり、非交配雪と鳥はそうではないため、そのような弱いラベルから学べない。
階層分類に基づく手法であるCHILLAX (Class Hierarchies for Imprecise Label Learning and Annotation eXtrapolation)を提案する。
nabirds と ilsvrc2012 のノイズ変動実験により,本手法は強いベースラインを最大 16.4 %,現在のアートを最大 3.9 % の精度で上回った。
関連論文リスト
- Online Multi-Label Classification under Noisy and Changing Label Distribution [9.17381554071824]
本稿では,Nuisy and Changing Label Distribution (NCLD) に基づくオンラインマルチラベル分類アルゴリズムを提案する。
NCLDへの頑健さは3つの新作の恩恵を受けるため,ラベルスコアとラベルランキングを高い精度で同時にモデル化することを目的としている。
論文 参考訳(メタデータ) (2024-10-03T11:16:43Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Learning from Stochastic Labels [8.178975818137937]
マルチクラスインスタンスのアノテーションは、機械学習の分野で重要なタスクである。
本稿では,これらのラベルから学習するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-01T08:04:27Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z) - Error-Bounded Correction of Noisy Labels [17.510654621245656]
ノイズのある分類器の予測は、トレーニングデータのラベルがクリーンかどうかを示す良い指標であることを示す。
理論的結果に基づいて,雑音分類器の予測に基づいてラベルを補正する新しいアルゴリズムを提案する。
ラベル補正アルゴリズムをディープニューラルネットワークのトレーニングや,複数の公開データセット上で優れたテスト性能を実現するトレーニングモデルに組み込む。
論文 参考訳(メタデータ) (2020-11-19T19:23:23Z) - Exploiting Context for Robustness to Label Noise in Active Learning [47.341705184013804]
本稿では,どのラベルが間違っているのかをシステムがどのように識別するか,ラベルノイズの負の影響を最小限に抑えるために,マルチクラスアクティブラーニングシステムをどのように適用できるか,といった課題に対処する。
我々は、これらの関係を符号化し、ノイズラベルが利用できる場合にグラフ上の新しい信念を得るために、ラベルなしデータのグラフィカルな表現を構築した。
これはシーン分類、アクティビティ分類、文書分類の3つの異なる応用で実証されている。
論文 参考訳(メタデータ) (2020-10-18T18:59:44Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z) - Does label smoothing mitigate label noise? [57.76529645344897]
ラベルの平滑化はラベルノイズ下での損失補正と競合することを示す。
ノイズの多いデータからモデルを蒸留する場合,教師のラベルの平滑化は有益であることを示す。
論文 参考訳(メタデータ) (2020-03-05T18:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。