論文の概要: Importance Reweighting for Biquality Learning
- arxiv url: http://arxiv.org/abs/2010.09621v5
- Date: Mon, 20 Sep 2021 09:56:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:45:06.845104
- Title: Importance Reweighting for Biquality Learning
- Title(参考訳): バイクオリティ学習における重要度重み付け
- Authors: Pierre Nodet and Vincent Lemaire and Alexis Bondu and Antoine
Cornu\'ejols
- Abstract要約: 本稿では,弱視学習のオリジナル,包括的視点を提案する。
その結果、あらゆる種類のラベルノイズに対処できる汎用的なアプローチが考案された。
本稿では、信頼できないデータセットの非破壊例を識別できる新しい再検討手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of Weakly Supervised Learning (WSL) has recently seen a surge of
popularity, with numerous papers addressing different types of "supervision
deficiencies", namely: poor quality, non adaptability, and insufficient
quantity of labels. Regarding quality, label noise can be of different types,
including completely-at-random, at-random or even not-at-random. All these
kinds of label noise are addressed separately in the literature, leading to
highly specialized approaches. This paper proposes an original, encompassing,
view of Weakly Supervised Learning, which results in the design of generic
approaches capable of dealing with any kind of label noise. For this purpose,
an alternative setting called "Biquality data" is used. It assumes that a small
trusted dataset of correctly labeled examples is available, in addition to an
untrusted dataset of noisy examples. In this paper, we propose a new
reweigthing scheme capable of identifying noncorrupted examples in the
untrusted dataset. This allows one to learn classifiers using both datasets.
Extensive experiments that simulate several types of label noise and that vary
the quality and quantity of untrusted examples, demonstrate that the proposed
approach outperforms baselines and state-of-the-art approaches.
- Abstract(参考訳): Wakly Supervised Learning (WSL) の分野は最近、様々なタイプの「スーパービジョン欠陥」、すなわち品質の低下、非適応性、ラベルの不足に対処する多くの論文で人気が高まっている。
品質に関して、ラベルノイズは、完全にランダム、非ランダム、あるいは非ランダムなど、異なるタイプのものとなる。
これらすべてのラベルノイズは文献で別々に対処され、高度に専門化されたアプローチが導かれる。
本稿では,任意のラベルノイズに対処可能な汎用的アプローチを設計する上での,Weakly Supervised Learningのオリジナルかつ包括的視点を提案する。
この目的のために、"Biquality data"と呼ばれる代替設定を用いる。
正しくラベル付けされた例の小さな信頼されたデータセットと、ノイズの多い例の信頼できないデータセットが利用できると仮定している。
本稿では、信頼できないデータセットの非破壊例を識別できる新しい再検討手法を提案する。
これにより、両方のデータセットを使って分類器を学習できる。
いくつかの種類のラベルノイズをシミュレートし、信頼できない例の質や量を変える実験により、提案手法がベースラインと最先端のアプローチより優れていることを示す。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Robust Assignment of Labels for Active Learning with Sparse and Noisy
Annotations [0.17188280334580192]
監視された分類アルゴリズムは、世界中の多くの現実の問題を解決するために使用される。
残念なことに、多くのタスクに対して良質なアノテーションを取得することは、実際に行うには不可能か、あるいはコストがかかりすぎます。
サンプル空間のラベルのない部分を利用する2つの新しいアノテーション統一アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-25T19:40:41Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Rethinking the Value of Labels for Instance-Dependent Label Noise
Learning [43.481591776038144]
実世界のアプリケーションにおけるノイズの多いラベルは、しばしば真のラベルと機能の両方に依存します。
本研究では、ノイズ遷移行列を明示的にモデル化しない新しい深層生成モデルを用いて、インスタンス依存ラベルノイズに対処する。
提案アルゴリズムは,カジュアルな表現学習を活用し,データから高レベルのコンテンツとスタイルの潜伏要素を同時に識別する。
論文 参考訳(メタデータ) (2023-05-10T15:29:07Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - EvidentialMix: Learning with Combined Open-set and Closed-set Noisy
Labels [30.268962418683955]
開集合ラベルと閉集合ラベルを組み合わせた雑音ラベル問題の新しい変種について検討する。
その結果,従来の最先端手法よりも優れた分類結果と特徴表現が得られた。
論文 参考訳(メタデータ) (2020-11-11T11:15:32Z) - Label Noise Types and Their Effects on Deep Learning [0.0]
本研究では,異なる種類のラベルノイズが学習に与える影響を詳細に分析する。
本稿では,特徴に依存したラベルノイズを生成する汎用フレームワークを提案する。
他の研究者がノイズの多いラベルでアルゴリズムをテストしやすいように、最も一般的に使用されているベンチマークデータセットに対して、破損したラベルを共有します。
論文 参考訳(メタデータ) (2020-03-23T18:03:39Z) - Confidence Scores Make Instance-dependent Label-noise Learning Possible [129.84497190791103]
ノイズのあるラベルで学習する際、そのラベルはノイズモデルと呼ばれる遷移分布に従ってランダムに他のクラスに移動することができる。
我々は、各インスタンスラベル対に信頼スコアを付与する、信頼スコア付きインスタンス依存ノイズ(CSIDN)を導入する。
信頼性スコアの助けを借りて、各インスタンスの遷移分布を推定できる。
論文 参考訳(メタデータ) (2020-01-11T16:15:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。