論文の概要: When does Privileged Information Explain Away Label Noise?
- arxiv url: http://arxiv.org/abs/2303.01806v2
- Date: Thu, 1 Jun 2023 08:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-03 00:04:03.871017
- Title: When does Privileged Information Explain Away Label Noise?
- Title(参考訳): 特権情報はいつラベルノイズを取り除くのか?
- Authors: Guillermo Ortiz-Jimenez, Mark Collier, Anant Nawalgaria, Alexander
D'Amour, Jesse Berent, Rodolphe Jenatton, Effrosyni Kokiopoulou
- Abstract要約: ラベルノイズを除去する際のPIの特性の違いによる役割について検討する。
ネットワークがノイズの多いデータとクリーンなデータを容易に区別できる場合、PIが最も役立ちます。
本稿では,最新のPI手法のいくつかの改良を提案し,ラベルノイズに対処する手段としてのPIの可能性を示す。
- 参考スコア(独自算出の注目度): 66.9725683097357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Leveraging privileged information (PI), or features available during training
but not at test time, has recently been shown to be an effective method for
addressing label noise. However, the reasons for its effectiveness are not well
understood. In this study, we investigate the role played by different
properties of the PI in explaining away label noise. Through experiments on
multiple datasets with real PI (CIFAR-N/H) and a new large-scale benchmark
ImageNet-PI, we find that PI is most helpful when it allows networks to easily
distinguish clean from noisy data, while enabling a learning shortcut to
memorize the noisy examples. Interestingly, when PI becomes too predictive of
the target label, PI methods often perform worse than their no-PI baselines.
Based on these findings, we propose several enhancements to the
state-of-the-art PI methods and demonstrate the potential of PI as a means of
tackling label noise. Finally, we show how we can easily combine the resulting
PI approaches with existing no-PI techniques designed to deal with label noise.
- Abstract(参考訳): 特権情報(pi)や、トレーニング中に利用可能だがテスト時ではない機能を活用することは、最近ラベルノイズに対処する効果的な方法であることが示されている。
しかし、その効果の理由はよく理解されていない。
本研究では,PIの特性の違いによるラベルノイズの除去に果たす役割について検討した。
実PI(CIFAR-N/H)と新しい大規模ベンチマークであるImageNet-PIによる複数のデータセットの実験により,ネットワークがノイズの多いデータとクリーンなデータを容易に区別できると同時に,学習ショートカットによってノイズの多いサンプルを記憶できることが確認できた。
興味深いことに、PIがターゲットラベルを予測しすぎると、PIメソッドは非PIベースラインよりもパフォーマンスが悪くなります。
これらの知見に基づいて,最新のPI手法のいくつかの改良を提案し,ラベルノイズに対処する手段としてのPIの可能性を示す。
最後に、ラベルノイズに対処するための既存のno-PI手法と結果のPIアプローチを簡単に組み合わせる方法について述べる。
関連論文リスト
- Bayesian Prediction-Powered Inference [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
本稿では,ベイズ推定に基づくPPIのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-09T18:08:58Z) - Pi-DUAL: Using Privileged Information to Distinguish Clean from Noisy Labels [47.85182773875054]
クリーンなラベルを識別するために特権情報(PI)を利用するアーキテクチャであるPi-DUALを導入する。
Pi-DUALは、主要なPIベンチマークで大幅なパフォーマンス向上を実現し、新しい最先端のテストセットの精度を確立する。
Pi-DUALは、PIを用いた様々な現実シナリオにおけるラベルノイズの影響を軽減するための、シンプルでスケーラブルで実践的なアプローチである。
論文 参考訳(メタデータ) (2023-10-10T13:08:50Z) - FedNoisy: Federated Noisy Label Learning Benchmark [53.73816587601204]
フェデレーション学習は、クライアントからの機密データを集約することなく、分散学習で人気を集めている。
データ分離の分散と分離の性質は、データ品質によって複雑になり、ノイズの多いラベルに対してより脆弱になる可能性がある。
私たちは、研究者が潜在的にフェデレートされたノイズ設定を十分に調査するのに役立つ、最初の標準ベンチマークを提供しています。
論文 参考訳(メタデータ) (2023-06-20T16:18:14Z) - Towards Effective Visual Representations for Partial-Label Learning [49.91355691337053]
部分ラベル学習(PLL)では、トレーニングインスタンス毎に、未知の真のラベルを含むあいまいなラベルのセットのみがアクセス可能である。
真のラベルがなければ、正の点は本質的にノイズの多い擬似ラベルで予測され、負の点は大きなバッチや運動量エンコーダを必要とすることが多い。
本稿では,表現学習の改善のための重要なスコープを示す,最先端のコントラスト手法PiCO[PiPi24]を再考する。
論文 参考訳(メタデータ) (2023-05-10T12:01:11Z) - Noise-robust Graph Learning by Estimating and Leveraging Pairwise
Interactions [123.07967420310796]
本稿では,グラフ上のノイズノード分類のためのペアワイズフレームワークを提案することにより,そのギャップを埋める。
PI-GNNは、ノイズの多いノードクラスラベルからのポイントワイズ学習に加えて、PIを一次学習プロキシとして依存している。
提案するフレームワークPI-GNNは,(1)PIラベルを適応的に推定する信頼度を考慮したPI推定モデル,(2)PIラベルを推定する疎結合トレーニング手法の2つの新しい構成要素に寄与する。
論文 参考訳(メタデータ) (2021-06-14T14:23:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。