論文の概要: Multi-Class Classification from Noisy-Similarity-Labeled Data
- arxiv url: http://arxiv.org/abs/2002.06508v1
- Date: Sun, 16 Feb 2020 05:10:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 17:41:01.246417
- Title: Multi-Class Classification from Noisy-Similarity-Labeled Data
- Title(参考訳): 雑音類似性ラベルデータからのマルチクラス分類
- Authors: Songhua Wu, Xiaobo Xia, Tongliang Liu, Bo Han, Mingming Gong, Nannan
Wang, Haifeng Liu, Gang Niu
- Abstract要約: 雑音に類似したラベル付きデータのみから学習する方法を提案する。
ノイズ遷移行列を用いて、クリーンデータとノイズデータの間にクラス後確率をブリッジする。
雑音のないクラスラベルをインスタンスに割り当てる新しい学習システムを構築した。
- 参考スコア(独自算出の注目度): 98.13491369929798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A similarity label indicates whether two instances belong to the same class
while a class label shows the class of the instance. Without class labels, a
multi-class classifier could be learned from similarity-labeled pairwise data
by meta classification learning. However, since the similarity label is less
informative than the class label, it is more likely to be noisy. Deep neural
networks can easily remember noisy data, leading to overfitting in
classification. In this paper, we propose a method for learning from only
noisy-similarity-labeled data. Specifically, to model the noise, we employ a
noise transition matrix to bridge the class-posterior probability between clean
and noisy data. We further estimate the transition matrix from only noisy data
and build a novel learning system to learn a classifier which can assign
noise-free class labels for instances. Moreover, we theoretically justify how
our proposed method generalizes for learning classifiers. Experimental results
demonstrate the superiority of the proposed method over the state-of-the-art
method on benchmark-simulated and real-world noisy-label datasets.
- Abstract(参考訳): 類似性ラベルは2つのインスタンスが同じクラスに属しているかどうかを示し、クラスラベルはインスタンスのクラスを示す。
クラスラベルがなければ、多重クラス分類器はメタ分類学習によって類似性ラベル付きペアワイズデータから学習することができる。
しかし、類似性ラベルはクラスラベルよりも情報に乏しいため、ノイズが多い可能性が高い。
ディープニューラルネットワークはノイズの多いデータを覚えやすく、分類に過度に適合する。
本稿では,雑音類似性ラベルデータのみから学習する手法を提案する。
具体的には,ノイズをモデル化するために,ノイズ遷移行列を用いて,クリーンデータとノイズデータ間のクラス後確率を橋渡しする。
さらに,ノイズのないクラスラベルをインスタンスに割り当て可能な分類器を学習するために,ノイズデータのみから遷移行列を推定し,新しい学習システムを構築する。
さらに,提案手法が学習型分類器にどのように一般化するかを理論的に正当化する。
実験により,提案手法がベンチマークシミュレーションおよび実世界の雑音ラベルデータセット上での最先端手法よりも優れていることを示す。
関連論文リスト
- Estimating Noisy Class Posterior with Part-level Labels for Noisy Label Learning [13.502549812291878]
既存の手法は通常、ノイズのあるラベルを持つ分類モデルを訓練することで、ノイズの多いクラス後部を学習する。
本稿では,教師付き情報をパートレベルのラベルで強化し,様々な部分からよりリッチな情報に集中・統合することをモデルに推奨する。
提案手法は理論的に健全であり,実験結果から合成および実世界の雑音評価において実験的に有効であることが示された。
論文 参考訳(メタデータ) (2024-05-08T12:13:40Z) - Multi-Label Noise Transition Matrix Estimation with Label Correlations:
Theory and Algorithm [73.94839250910977]
ノイズの多いマルチラベル学習は、大規模な正確なラベルの収集によって生じる課題により、注目を集めている。
遷移行列の導入は、マルチラベルノイズをモデル化し、統計的に一貫したアルゴリズムの開発に役立つ。
そこで本稿では, アンカーポイントを必要とせずに, ラベル相関を利用した新しい推定器を提案する。
論文 参考訳(メタデータ) (2023-09-22T08:35:38Z) - Instance-dependent Label-noise Learning under a Structural Causal Model [92.76400590283448]
ラベルノイズはディープラーニングアルゴリズムの性能を劣化させる。
構造因果モデルを活用することにより,実例依存型ラベルノイズ学習のための新しい生成手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T10:42:54Z) - Learning from Multiple Annotators by Incorporating Instance Features [15.643325526074804]
複数のアノテーションから学ぶことは、トレーニングインスタンスから高品質な分類器を誘導することを目的としている。
既存のほとんどのメソッドでは、ラベルがインスタンスの特徴に依存しないアノテータのクラスレベルの混乱行列が採用されている。
混乱行列に基づくアノテータの性能に対するインスタンス特徴の影響を取り入れたノイズ遷移行列を提案する。
論文 参考訳(メタデータ) (2021-06-29T08:07:24Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Extended T: Learning with Mixed Closed-set and Open-set Noisy Labels [86.5943044285146]
ラベルノイズ遷移行列$T$は、真のラベルがノイズのあるものへと反転する確率を反映する。
本稿では,閉集合と開集合の混在したラベル雑音下での学習に着目した。
本手法は,従来の最先端のラベル雑音学習法よりも頑健な性能を追求し,混合ラベル雑音をモデル化する。
論文 参考訳(メタデータ) (2020-12-02T02:42:45Z) - Error-Bounded Correction of Noisy Labels [17.510654621245656]
ノイズのある分類器の予測は、トレーニングデータのラベルがクリーンかどうかを示す良い指標であることを示す。
理論的結果に基づいて,雑音分類器の予測に基づいてラベルを補正する新しいアルゴリズムを提案する。
ラベル補正アルゴリズムをディープニューラルネットワークのトレーニングや,複数の公開データセット上で優れたテスト性能を実現するトレーニングモデルに組み込む。
論文 参考訳(メタデータ) (2020-11-19T19:23:23Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z) - Label Noise Types and Their Effects on Deep Learning [0.0]
本研究では,異なる種類のラベルノイズが学習に与える影響を詳細に分析する。
本稿では,特徴に依存したラベルノイズを生成する汎用フレームワークを提案する。
他の研究者がノイズの多いラベルでアルゴリズムをテストしやすいように、最も一般的に使用されているベンチマークデータセットに対して、破損したラベルを共有します。
論文 参考訳(メタデータ) (2020-03-23T18:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。