論文の概要: Cooperative Learning for Noisy Supervision
- arxiv url: http://arxiv.org/abs/2108.05092v1
- Date: Wed, 11 Aug 2021 08:29:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 16:28:56.431641
- Title: Cooperative Learning for Noisy Supervision
- Title(参考訳): 騒音監視のための協調学習
- Authors: Hao Wu, Jiangchao Yao, Ya Zhang, Yanfeng Wang
- Abstract要約: ノイズの多い監視のためのCooLフレームワークは、二重ネットワークや複数ネットワークを活用する効果を解析的に説明している。
合成と実世界の両方の設定で、いくつかのベンチマークで実験が行われた。
- 参考スコア(独自算出の注目度): 28.765913119568122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning with noisy labels has gained the enormous interest in the robust
deep learning area. Recent studies have empirically disclosed that utilizing
dual networks can enhance the performance of single network but without
theoretic proof. In this paper, we propose Cooperative Learning (CooL)
framework for noisy supervision that analytically explains the effects of
leveraging dual or multiple networks. Specifically, the simple but efficient
combination in CooL yields a more reliable risk minimization for unseen clean
data. A range of experiments have been conducted on several benchmarks with
both synthetic and real-world settings. Extensive results indicate that CooL
outperforms several state-of-the-art methods.
- Abstract(参考訳): ノイズの多いラベルによる学習は、堅牢なディープラーニング分野に大きな関心を集めている。
最近の研究は、二重ネットワークを利用することで単一ネットワークの性能が向上するが、理論的な証明がないことを実証的に明らかにしている。
本稿では,二重ネットワークや複数ネットワークの活用効果を解析的に説明し,騒音監視のための協調学習(cool)フレームワークを提案する。
具体的には、coolのシンプルで効率的な組み合わせは、見えないクリーンデータに対するより信頼性の高いリスク最小化をもたらす。
合成と実世界の両方の設定で、いくつかのベンチマークで様々な実験が行われた。
その結果,CooLはいくつかの最先端手法よりも優れていた。
関連論文リスト
- Provably Neural Active Learning Succeeds via Prioritizing Perplexing Samples [53.95282502030541]
ニューラルネットワークベースのアクティブラーニング(NAL)は、ニューラルネットワークを使用してサンプルの小さなサブセットを選択してトレーニングする、費用対効果の高いデータ選択技術である。
我々は、機能学習の観点から、両方のクエリ基準ベースのNALの成功について、統一的な説明を提供することにより、一歩前進させようとする。
論文 参考訳(メタデータ) (2024-06-06T10:38:01Z) - AMU-Tuning: Effective Logit Bias for CLIP-based Few-shot Learning [50.78033979438031]
まず、ログバイアスの観点から、CLIPに基づく数ショット学習手法を統一的な定式化して分析する。
本稿では,鍵成分の分析に基づいて,CLIPに基づく複数ショット分類のための効果的なロジットバイアスを学習するための新しいAMU-Tuning法を提案する。
論文 参考訳(メタデータ) (2024-04-13T10:46:11Z) - Simple Ingredients for Offline Reinforcement Learning [86.1988266277766]
オフライン強化学習アルゴリズムは、ターゲット下流タスクに高度に接続されたデータセットに有効であることが証明された。
既存の手法が多様なデータと競合することを示す。その性能は、関連するデータ収集によって著しく悪化するが、オフラインバッファに異なるタスクを追加するだけでよい。
アルゴリズム的な考慮以上のスケールが、パフォーマンスに影響を及ぼす重要な要因であることを示す。
論文 参考訳(メタデータ) (2024-03-19T18:57:53Z) - Sharing Knowledge in Multi-Task Deep Reinforcement Learning [57.38874587065694]
マルチタスク強化学習において、ディープニューラルネットワークを効果的に活用するためのタスク間の表現の共有の利点について検討する。
我々は,タスク間で表現を共有するのに便利な条件を強調する理論的保証を提供することで,これを証明している。
論文 参考訳(メタデータ) (2024-01-17T19:31:21Z) - Scribble-supervised Cell Segmentation Using Multiscale Contrastive
Regularization [9.849498498869258]
Scribble2Label (S2L) は、一握りのスクリブルと自己教師付き学習を使用することで、完全なアノテーションなしで正確なセグメンテーション結果を生成することを示した。
本研究では,S2Lに対して,新しいマルチスケールコントラスト正規化項を用いる。
主なアイデアは、ニューラルネットワークの中間層から特徴を抽出して、さまざまなスケールの構造を効果的に分離できるようにすることである。
論文 参考訳(メタデータ) (2023-06-25T06:00:33Z) - Understanding the Role of Mixup in Knowledge Distillation: An Empirical
Study [4.751886527142779]
Mixupは、2つのデータサンプル間の線形一般化による新しいサンプルの作成に基づく、一般的なデータ拡張技術である。
知識蒸留(KD)はモデル圧縮と伝達学習に広く用いられている。
スムースネス」は両者のつながりであり、KDとミックスアップの相互作用を理解する上でも重要な属性である。
論文 参考訳(メタデータ) (2022-11-08T01:43:14Z) - Planning for Sample Efficient Imitation Learning [52.44953015011569]
現在の模倣アルゴリズムは、高い性能と高環境サンプル効率を同時に達成するのに苦労している。
本研究では,環境内サンプルの効率と性能を同時に達成できる計画型模倣学習手法であるEfficientImitateを提案する。
実験結果から,EIは性能と試料効率の両立を図った。
論文 参考訳(メタデータ) (2022-10-18T05:19:26Z) - Robust Collaborative Learning with Noisy Labels [29.97769035348594]
本稿では,ネットワーク間の不一致と合意を両立させる,ロバスト協調学習(RCL)と呼ばれる新しいフレームワークを開発する。
合成ベンチマーク画像データと実世界大規模バイオインフォマティクスデータの両方に対するRCLの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-26T03:13:30Z) - Combating noisy labels by agreement: A joint training method with
co-regularization [27.578738673827658]
トレーニング中の2つのネットワークの多様性を低減することを目的とした,JoCoRと呼ばれる堅牢な学習パラダイムを提案する。
ノイズラベルを用いた学習において,JoCoRは最先端の多くのアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-05T16:42:41Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。