論文の概要: Co-learning: Learning from Noisy Labels with Self-supervision
- arxiv url: http://arxiv.org/abs/2108.04063v1
- Date: Thu, 5 Aug 2021 06:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 15:11:46.860508
- Title: Co-learning: Learning from Noisy Labels with Self-supervision
- Title(参考訳): 共学: 自己監督によるノイズラベルからの学習
- Authors: Cheng Tan, Jun Xia, Lirong Wu, Stan Z. Li
- Abstract要約: 自己教師付き学習はラベルのない状態で機能し、ノイズラベルの負の影響を排除します。
教師付き学習と自己監督型学習の両方の視点で協調学習を行うことで、ノイズラベルを用いた学習のためのコラーニングという、シンプルで効果的な方法を提案する。
- 参考スコア(独自算出の注目度): 28.266156561454327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Noisy labels, resulting from mistakes in manual labeling or webly data
collecting for supervised learning, can cause neural networks to overfit the
misleading information and degrade the generalization performance.
Self-supervised learning works in the absence of labels and thus eliminates the
negative impact of noisy labels. Motivated by co-training with both supervised
learning view and self-supervised learning view, we propose a simple yet
effective method called Co-learning for learning with noisy labels. Co-learning
performs supervised learning and self-supervised learning in a cooperative way.
The constraints of intrinsic similarity with the self-supervised module and the
structural similarity with the noisily-supervised module are imposed on a
shared common feature encoder to regularize the network to maximize the
agreement between the two constraints. Co-learning is compared with peer
methods on corrupted data from benchmark datasets fairly, and extensive results
are provided which demonstrate that Co-learning is superior to many
state-of-the-art approaches.
- Abstract(参考訳): 手動ラベリングの誤りや教師付き学習のためのwebデータ収集から生じるノイズの多いラベルは、ニューラルネットワークが誤解を招く情報に過剰に適合し、一般化性能を低下させる可能性がある。
自己教師付き学習はラベルのない状態で機能し、ノイズラベルの負の影響を排除する。
教師付き学習と自己監督型学習の両方の視点で協調学習を行うことで、ノイズラベルを用いた学習のためのコラーニングと呼ばれるシンプルで効果的な方法を提案する。
共同学習は、協調的に教師あり学習と自己監督学習を行う。
共有共通特徴エンコーダに、自己教師付きモジュールと固有の類似性の制約とノイズ教師付きモジュールとの構造類似性の制約を課し、ネットワークを正規化し、2つの制約間の合意を最大化する。
コラーニングは、ベンチマークデータセットの破損したデータのピアメソッドを公平に比較し、コラーニングが最先端の多くのアプローチよりも優れていることを示す広範な結果を提供する。
関連論文リスト
- A Probabilistic Model behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
識別性SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示す。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Rethinking Weak Supervision in Helping Contrastive Learning [19.5649824524209]
コントラスト学習における半教師付き情報と雑音ラベル付き情報との機械的差異について検討する。
具体的には、教師付きと教師なしのコントラスト的損失の協調訓練の最も直感的なパラダイムについて検討する。
半教師付きラベルが下流誤差境界を改善するのに対し、ノイズラベルはそのようなパラダイムの下では限定的な効果を持つことを示す。
論文 参考訳(メタデータ) (2023-06-07T05:18:27Z) - Hyperspherical Consistency Regularization [45.00073340936437]
我々は,自己教師あり学習と教師あり学習の関係について検討し,自己教師あり学習がデータ効率のよい深層学習にどのように役立つかを検討する。
超球面整合正則化(HCR)を提案し,特徴依存情報を用いた分類器の正規化を行い,ラベルからのバイアスを回避する。
論文 参考訳(メタデータ) (2022-06-02T02:41:13Z) - Self-Taught Metric Learning without Labels [47.832107446521626]
教師なしメトリック学習のための新しい自己学習フレームワークを提案する。
埋め込みモデルの移動平均を通してデータ間のクラス等価関係を予測し、予測された関係を擬似ラベルとして学習する。
論文 参考訳(メタデータ) (2022-05-04T05:48:40Z) - CoDiM: Learning with Noisy Labels via Contrastive Semi-Supervised
Learning [58.107679606345165]
ノイズラベル学習、半教師付き学習、コントラスト学習は、アノテーションコストの削減を必要とする学習プロセスを設計するための3つの異なる戦略である。
本稿では,コントラシブ・セミスーパーバイズド・ラーニング・アルゴリズムであるCSSLと,ノイズラベルを用いた学習のための新しいアルゴリズムであるCoDiMを提案する。
論文 参考訳(メタデータ) (2021-11-23T04:56:40Z) - Robust Mutual Learning for Semi-supervised Semantic Segmentation [23.54885398483688]
従来のアプローチを2つの側面で改善する頑健な相互学習を提案する。
モデル結合を緩和するためには、強いデータ拡張、モデルノイズ、異種ネットワークアーキテクチャが不可欠であることを示す。
提案した頑健な相互学習は、低データ状態におけるセマンティックセグメンテーションにおける最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-06-01T16:22:01Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Can Semantic Labels Assist Self-Supervised Visual Representation
Learning? [194.1681088693248]
近隣環境におけるコントラスト調整(SCAN)という新しいアルゴリズムを提案する。
一連のダウンストリームタスクにおいて、SCANは従来の完全教師付きおよび自己教師付きメソッドよりも優れたパフォーマンスを達成する。
本研究は, セマンティックラベルが自己指導的手法の補助に有用であることを明らかにする。
論文 参考訳(メタデータ) (2020-11-17T13:25:00Z) - Learning to Learn in a Semi-Supervised Fashion [41.38876517851431]
本稿では,ラベル付きデータとラベルなしデータの両方から半教師付き学習を行うメタ学習手法を提案する。
我々の戦略は、完全に教師付き学習タスクに適用可能な自己教師付き学習スキームとみなすことができる。
論文 参考訳(メタデータ) (2020-08-25T17:59:53Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。