論文の概要: Cooperative Learning for Noisy Supervision
- arxiv url: http://arxiv.org/abs/2108.05092v1
- Date: Wed, 11 Aug 2021 08:29:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 16:28:56.431641
- Title: Cooperative Learning for Noisy Supervision
- Title(参考訳): 騒音監視のための協調学習
- Authors: Hao Wu, Jiangchao Yao, Ya Zhang, Yanfeng Wang
- Abstract要約: ノイズの多い監視のためのCooLフレームワークは、二重ネットワークや複数ネットワークを活用する効果を解析的に説明している。
合成と実世界の両方の設定で、いくつかのベンチマークで実験が行われた。
- 参考スコア(独自算出の注目度): 28.765913119568122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning with noisy labels has gained the enormous interest in the robust
deep learning area. Recent studies have empirically disclosed that utilizing
dual networks can enhance the performance of single network but without
theoretic proof. In this paper, we propose Cooperative Learning (CooL)
framework for noisy supervision that analytically explains the effects of
leveraging dual or multiple networks. Specifically, the simple but efficient
combination in CooL yields a more reliable risk minimization for unseen clean
data. A range of experiments have been conducted on several benchmarks with
both synthetic and real-world settings. Extensive results indicate that CooL
outperforms several state-of-the-art methods.
- Abstract(参考訳): ノイズの多いラベルによる学習は、堅牢なディープラーニング分野に大きな関心を集めている。
最近の研究は、二重ネットワークを利用することで単一ネットワークの性能が向上するが、理論的な証明がないことを実証的に明らかにしている。
本稿では,二重ネットワークや複数ネットワークの活用効果を解析的に説明し,騒音監視のための協調学習(cool)フレームワークを提案する。
具体的には、coolのシンプルで効率的な組み合わせは、見えないクリーンデータに対するより信頼性の高いリスク最小化をもたらす。
合成と実世界の両方の設定で、いくつかのベンチマークで様々な実験が行われた。
その結果,CooLはいくつかの最先端手法よりも優れていた。
関連論文リスト
- Sharing Knowledge in Multi-Task Deep Reinforcement Learning [57.38874587065694]
マルチタスク強化学習において、ディープニューラルネットワークを効果的に活用するためのタスク間の表現の共有の利点について検討する。
我々は,タスク間で表現を共有するのに便利な条件を強調する理論的保証を提供することで,これを証明している。
論文 参考訳(メタデータ) (2024-01-17T19:31:21Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Scribble-supervised Cell Segmentation Using Multiscale Contrastive
Regularization [9.849498498869258]
Scribble2Label (S2L) は、一握りのスクリブルと自己教師付き学習を使用することで、完全なアノテーションなしで正確なセグメンテーション結果を生成することを示した。
本研究では,S2Lに対して,新しいマルチスケールコントラスト正規化項を用いる。
主なアイデアは、ニューラルネットワークの中間層から特徴を抽出して、さまざまなスケールの構造を効果的に分離できるようにすることである。
論文 参考訳(メタデータ) (2023-06-25T06:00:33Z) - Towards End-to-end Semi-supervised Learning for One-stage Object
Detection [88.56917845580594]
本稿では,高度な一段検出ネットワークYOLOv5の半教師付き学習に焦点を当てた。
そこで我々は,Multi-view Pseudo-label Refinement (MPR) とDecoupled Semi-supervised Optimization (DSO) の2つの革新的な設計を取り入れた新しい教師学習レシピOneTeacherを提案する。
特に、MPRは、拡張ビューリファインメントとグローバルビューフィルタリングによって擬似ラベルの品質を改善し、DSOは構造的な微調整とタスク固有の擬似ラベルによる共同最適化競合を処理する。
論文 参考訳(メタデータ) (2023-02-22T11:35:40Z) - Understanding the Role of Mixup in Knowledge Distillation: An Empirical
Study [4.751886527142779]
Mixupは、2つのデータサンプル間の線形一般化による新しいサンプルの作成に基づく、一般的なデータ拡張技術である。
知識蒸留(KD)はモデル圧縮と伝達学習に広く用いられている。
スムースネス」は両者のつながりであり、KDとミックスアップの相互作用を理解する上でも重要な属性である。
論文 参考訳(メタデータ) (2022-11-08T01:43:14Z) - Planning for Sample Efficient Imitation Learning [52.44953015011569]
現在の模倣アルゴリズムは、高い性能と高環境サンプル効率を同時に達成するのに苦労している。
本研究では,環境内サンプルの効率と性能を同時に達成できる計画型模倣学習手法であるEfficientImitateを提案する。
実験結果から,EIは性能と試料効率の両立を図った。
論文 参考訳(メタデータ) (2022-10-18T05:19:26Z) - Self-distillation with Batch Knowledge Ensembling Improves ImageNet
Classification [57.5041270212206]
本稿では,アンカー画像のためのソフトターゲットを生成するために,BAtch Knowledge Ensembling (BAKE)を提案する。
BAKEは、1つのネットワークだけで複数のサンプルを網羅するオンライン知識を実現する。
既存の知識集合法と比較して計算とメモリのオーバーヘッドは最小限である。
論文 参考訳(メタデータ) (2021-04-27T16:11:45Z) - Robust Collaborative Learning with Noisy Labels [29.97769035348594]
本稿では,ネットワーク間の不一致と合意を両立させる,ロバスト協調学習(RCL)と呼ばれる新しいフレームワークを開発する。
合成ベンチマーク画像データと実世界大規模バイオインフォマティクスデータの両方に対するRCLの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-26T03:13:30Z) - Combating noisy labels by agreement: A joint training method with
co-regularization [27.578738673827658]
トレーニング中の2つのネットワークの多様性を低減することを目的とした,JoCoRと呼ばれる堅牢な学習パラダイムを提案する。
ノイズラベルを用いた学習において,JoCoRは最先端の多くのアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-05T16:42:41Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。