論文の概要: Robust Collaborative Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2012.13670v1
- Date: Sat, 26 Dec 2020 03:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 03:53:50.478162
- Title: Robust Collaborative Learning with Noisy Labels
- Title(参考訳): 雑音ラベルを用いたロバスト協調学習
- Authors: Mengying Sun, Jing Xing, Bin Chen, Jiayu Zhou
- Abstract要約: 本稿では,ネットワーク間の不一致と合意を両立させる,ロバスト協調学習(RCL)と呼ばれる新しいフレームワークを開発する。
合成ベンチマーク画像データと実世界大規模バイオインフォマティクスデータの両方に対するRCLの有効性を実証する。
- 参考スコア(独自算出の注目度): 29.97769035348594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning with curriculum has shown great effectiveness in tasks where the
data contains noisy (corrupted) labels, since the curriculum can be used to
re-weight or filter out noisy samples via proper design. However, obtaining
curriculum from a learner itself without additional supervision or feedback
deteriorates the effectiveness due to sample selection bias. Therefore, methods
that involve two or more networks have been recently proposed to mitigate such
bias. Nevertheless, these studies utilize the collaboration between networks in
a way that either emphasizes the disagreement or focuses on the agreement while
ignores the other. In this paper, we study the underlying mechanism of how
disagreement and agreement between networks can help reduce the noise in
gradients and develop a novel framework called Robust Collaborative Learning
(RCL) that leverages both disagreement and agreement among networks. We
demonstrate the effectiveness of RCL on both synthetic benchmark image data and
real-world large-scale bioinformatics data.
- Abstract(参考訳): カリキュラムによる学習は、適切な設計でノイズの多いサンプルを再重み付けしたりフィルタリングしたりできるため、データがノイズラベルを含むタスクにおいて大きな効果を示してきた。
しかし、追加の監督やフィードバックなしに学習者自身からカリキュラムを得ることは、サンプル選択バイアスによる効果を低下させる。
そのため、2つ以上のネットワークを含む手法が近年提案されている。
それにもかかわらず、これらの研究はネットワーク間の協調を利用して、意見の相違を強調したり、合意に焦点を合わせながら他方を無視したりしている。
本稿では,ネットワーク間の不一致と合意が勾配の雑音を減らし,ネットワーク間の不一致と合意の両面を活用したロバスト協調学習(RCL)と呼ばれる新しいフレームワークを開発するための基盤機構について検討する。
実世界の大規模バイオインフォマティクスデータとベンチマーク画像データの両方において,RCLの有効性を示す。
関連論文リスト
- Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Personalized Decentralized Multi-Task Learning Over Dynamic
Communication Graphs [59.96266198512243]
本稿では,正と負の相関関係を持つタスクに対する分散・フェデレーション学習アルゴリズムを提案する。
本アルゴリズムでは,タスク間の相関関係を自動的に計算し,コミュニケーショングラフを動的に調整して相互に有益なタスクを接続し,互いに悪影響を及ぼす可能性のあるタスクを分離する。
合成ガウスデータセットと大規模セレブ属性(CelebA)データセットについて実験を行った。
論文 参考訳(メタデータ) (2022-12-21T18:58:24Z) - Improving Distantly-Supervised Named Entity Recognition with
Self-Collaborative Denoising Learning [9.747173655999427]
SCDL(Self-Collaborative Denoising Learning)という,堅牢な学習パラダイムを提案する。
SCDLは、2つの教師学生ネットワークを相互に便宜的に訓練し、ノイズの多いラベル精製を反復的に行う。
5つの実世界のデータセットに対する大規模な実験結果から、SCDLは最先端のDS-NER復調法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-10-09T01:45:03Z) - Cooperative Learning for Noisy Supervision [28.765913119568122]
ノイズの多い監視のためのCooLフレームワークは、二重ネットワークや複数ネットワークを活用する効果を解析的に説明している。
合成と実世界の両方の設定で、いくつかのベンチマークで実験が行われた。
論文 参考訳(メタデータ) (2021-08-11T08:29:25Z) - Co-learning: Learning from Noisy Labels with Self-supervision [28.266156561454327]
自己教師付き学習はラベルのない状態で機能し、ノイズラベルの負の影響を排除します。
教師付き学習と自己監督型学習の両方の視点で協調学習を行うことで、ノイズラベルを用いた学習のためのコラーニングという、シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2021-08-05T06:20:51Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Combating noisy labels by agreement: A joint training method with
co-regularization [27.578738673827658]
トレーニング中の2つのネットワークの多様性を低減することを目的とした,JoCoRと呼ばれる堅牢な学習パラダイムを提案する。
ノイズラベルを用いた学習において,JoCoRは最先端の多くのアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-05T16:42:41Z) - Network Cooperation with Progressive Disambiguation for Partial Label
Learning [37.05637357091572]
Partial Label Learning (PLL) は、各トレーニングインスタンスが候補ラベルのセットに関連付けられている場合に分類器をトレーニングすることを目的としている。
既存のメソッドはインスタンスの曖昧さを無視し、シングルスレッドのトレーニングメカニズムを採用する。
本稿では,ネットワーク・コラボレーションとプログレッシブ・ディアンビゲーション(NCPD)を併用した新しいアプローチを提案する。
ニューラルネットワークをバックボーンとして利用することにより,相互に相互作用させることで,協調的に2つのネットワークをトレーニングするネットワーク協調機構を利用する。
論文 参考訳(メタデータ) (2020-02-22T09:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。