論文の概要: Transfer and Marginalize: Explaining Away Label Noise with Privileged
Information
- arxiv url: http://arxiv.org/abs/2202.09244v1
- Date: Fri, 18 Feb 2022 15:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 14:22:56.855449
- Title: Transfer and Marginalize: Explaining Away Label Noise with Privileged
Information
- Title(参考訳): transfer and marginalize: 特権情報によるラベルノイズの解消
- Authors: Mark Collier, Rodolphe Jenatton, Efi Kokiopoulou and Jesse Berent
- Abstract要約: 我々は、特権情報はラベルノイズの説明に有用であり、ノイズのあるラベルの有害な影響を低減することができると論じる。
我々は、ニューラルネットワークを教師するシンプルで効率的な手法を開発し、特権情報を用いて学習した知識をウェイトシェアすることで伝達する。
我々の方法であるTRAMは、訓練時間のオーバーヘッドが最小限であり、特権情報を使用しないのと同じテスト時間である。
- 参考スコア(独自算出の注目度): 9.102196436853298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised learning datasets often have privileged information, in the form
of features which are available at training time but are not available at test
time e.g. the ID of the annotator that provided the label. We argue that
privileged information is useful for explaining away label noise, thereby
reducing the harmful impact of noisy labels. We develop a simple and efficient
method for supervised neural networks: it transfers via weight sharing the
knowledge learned with privileged information and approximately marginalizes
over privileged information at test time. Our method, TRAM (TRansfer and
Marginalize), has minimal training time overhead and has the same test time
cost as not using privileged information. TRAM performs strongly on CIFAR-10H,
ImageNet and Civil Comments benchmarks.
- Abstract(参考訳): 教師付き学習データセットは、トレーニング時に利用可能だがテスト時に利用できない機能、例えばラベルを提供するアノテーションのIDなどの特権情報を持つことが多い。
我々は、特権情報はラベルノイズの除去に有用であり、ノイズラベルの有害影響を低減できると主張している。
そこで我々は,ニューラルネットワークを簡易かつ効率的に管理する手法を開発した。これは,特権情報を用いて学習した知識をウェイト共有し,テスト時に特権情報よりもほぼ疎外する。
我々の方法であるTRAM(TRansfer and Marginalize)は、トレーニング時間オーバーヘッドが最小であり、特権情報を使用しないのと同じテスト時間コストである。
TRAMはCIFAR-10H、ImageNet、Civil Commentsベンチマークで強く動作する。
関連論文リスト
- Improving a Named Entity Recognizer Trained on Noisy Data with a Few
Clean Instances [55.37242480995541]
クリーンなインスタンスの小さなセットから,ノイズの多いNERデータを誘導することで,ノイズを発生させる手法を提案する。
メインのNERモデルとともに、判別器モデルをトレーニングし、その出力を使用してサンプルの重み付けを校正します。
クラウドソーシングと遠隔監視データセットの結果から,提案手法は少ないガイダンスセットで継続的に性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2023-10-25T17:23:37Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Losses over Labels: Weakly Supervised Learning via Direct Loss
Construction [71.11337906077483]
プログラム可能な弱い監視は、機械学習のパラダイムとして成長している。
ラベルの中間ステップを経由することなく,直接損失を発生させるため,ラベルのロバスト・オーバー・ラベル(Losses over Labels, LoL)を提案する。
いくつかのベンチマークテキストおよび画像分類タスクにおいて、LoLは既存の弱い監督手法を改善していることを示す。
論文 参考訳(メタデータ) (2022-12-13T22:29:14Z) - Blind Knowledge Distillation for Robust Image Classification [19.668440671541546]
ブラインド知識蒸留(Blind Knowledge Distillation)は、ノイズラベルで学習する教師による学習方法である。
我々はOtsusアルゴリズムを用いて、一般化からオーバーフィッティングまでのチップポイントを推定する。
実験では, Blind Knowledge Distillation がトレーニング中の過剰適合を効果的に検出することを示した。
論文 参考訳(メタデータ) (2022-11-21T11:17:07Z) - Learning advisor networks for noisy image classification [22.77447144331876]
本稿では,画像分類におけるノイズラベルの問題に対処するためのアドバイザネットワークの概念を紹介する。
私たちはメタラーニング戦略でそれをトレーニングし、メインモデルのトレーニングを通じて適応できるようにしました。
我々はCIFAR10とCIFAR100を合成雑音で試験し,実環境雑音を含むCrothing1Mを用いて最先端の結果を報告する。
論文 参考訳(メタデータ) (2022-11-08T11:44:08Z) - Noise tolerance of learning to rank under class-conditional label noise [1.14219428942199]
経験的リスク最小化が一貫した手順である耐雑音性LtR損失のクラスについて述べる。
また、一般的に使われている損失関数の耐雑音性アナログも開発する。
論文 参考訳(メタデータ) (2022-08-03T15:04:48Z) - Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection [93.6222609806278]
本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
論文 参考訳(メタデータ) (2022-06-10T16:01:58Z) - On Learning Contrastive Representations for Learning with Noisy Labels [26.23187556876699]
ディープニューラルネットワークは、ソフトマックスクロスエントロピー(CE)損失でノイズラベルを容易に記憶することができる。
従来の研究では、ノイズ・ロスバスト損失関数をCE損失に組み込むことでこの問題に対処しようとした。
そこで本稿では,ノイズの多いデータ上でそのような表現を学習するための,新しいコントラスト正規化関数を提案する。
論文 参考訳(メタデータ) (2022-03-03T15:58:05Z) - Beyond Images: Label Noise Transition Matrix Estimation for Tasks with
Lower-Quality Features [13.659465403114766]
そこで我々は,低品質特徴の低情報部分の重み付けに対する実践的な情報理論的アプローチを提案する。
我々は,有望な$f$ミューチュアル情報尺度が,ノイズラベルを用いて計算した場合の順序をよく保持できることを証明した。
論文 参考訳(メタデータ) (2022-02-02T20:36:09Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。