論文の概要: AsyCo: An Asymmetric Dual-task Co-training Model for Partial-label Learning
- arxiv url: http://arxiv.org/abs/2407.15036v1
- Date: Sun, 21 Jul 2024 02:08:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 19:38:36.963131
- Title: AsyCo: An Asymmetric Dual-task Co-training Model for Partial-label Learning
- Title(参考訳): AsyCo:部分ラベル学習のための非対称デュアルタスク協調学習モデル
- Authors: Beibei Li, Yiyuan Zheng, Beihong Jin, Tao Xiang, Haobo Wang, Lei Feng,
- Abstract要約: 自己学習モデルは、最先端のパフォーマンスを実現するが、誤って曖昧なインスタンスによって生じるエラーの蓄積問題に悩まされる。
本稿では,2つのネットワーク,すなわち曖昧なネットワークと補助的なネットワークに,異なる視点から明確に学習するよう強制する,AsyCoという非対称なデュアルタスク協調学習モデルを提案する。
AsyCoの有効性を実証するため、一様および一様にラベル付けされた部分ラベル付きデータセットの実験を行った。
- 参考スコア(独自算出の注目度): 53.97072488455662
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Partial-Label Learning (PLL) is a typical problem of weakly supervised learning, where each training instance is annotated with a set of candidate labels. Self-training PLL models achieve state-of-the-art performance but suffer from error accumulation problem caused by mistakenly disambiguated instances. Although co-training can alleviate this issue by training two networks simultaneously and allowing them to interact with each other, most existing co-training methods train two structurally identical networks with the same task, i.e., are symmetric, rendering it insufficient for them to correct each other due to their similar limitations. Therefore, in this paper, we propose an asymmetric dual-task co-training PLL model called AsyCo, which forces its two networks, i.e., a disambiguation network and an auxiliary network, to learn from different views explicitly by optimizing distinct tasks. Specifically, the disambiguation network is trained with self-training PLL task to learn label confidence, while the auxiliary network is trained in a supervised learning paradigm to learn from the noisy pairwise similarity labels that are constructed according to the learned label confidence. Finally, the error accumulation problem is mitigated via information distillation and confidence refinement. Extensive experiments on both uniform and instance-dependent partially labeled datasets demonstrate the effectiveness of AsyCo. The code is available at https://github.com/libeibeics/AsyCo.
- Abstract(参考訳): 部分ラベル学習(Partial-Label Learning, PLL)は、弱い教師付き学習の典型的な問題であり、各トレーニングインスタンスに候補ラベルのセットをアノテートする。
自己学習型PLLモデルは、最先端のパフォーマンスを実現するが、誤って曖昧なインスタンスによって生じるエラー蓄積問題に悩まされる。
コトレーニングは2つのネットワークを同時にトレーニングして相互に相互作用させることによってこの問題を軽減することができるが、既存のコトレーニング手法のほとんどは、同じタスクで2つの構造的に同一のネットワークを訓練する。
そこで本稿では,2つのネットワーク,すなわちあいまいなネットワークと補助的なネットワークを強制する非対称なデュアルタスク協調学習型PLLモデルAsyCoを提案する。
具体的には、ラベル信頼を学習するために自己学習のPLLタスクで学習し、補助ネットワークは教師付き学習パラダイムで訓練し、学習されたラベル信頼に基づいて構築されたノイズの多いペアワイド類似ラベルから学習する。
最後に, 誤り蓄積問題を情報蒸留と信頼性改善により緩和する。
AsyCoの有効性を実証するため、一様および一様および一様にラベル付けされた部分ラベル付きデータセットの広範な実験を行った。
コードはhttps://github.com/libeibeics/AsyCo.comで入手できる。
関連論文リスト
- Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Match me if you can: Semi-Supervised Semantic Correspondence Learning with Unpaired Images [76.47980643420375]
本稿では,意味的対応の学習に固有のデータ・ハングリー・マターが存在するという仮説に基づく。
我々は,機械の監督を通じて,ペア化されたキーポイントを確実に強化する単純な機械注釈器を実証する。
我々のモデルは,SPair-71k,PF-PASCAL,PF-WILLOWといった意味対応学習ベンチマークの最先端モデルを上回る。
論文 参考訳(メタデータ) (2023-11-30T13:22:15Z) - CrossSplit: Mitigating Label Noise Memorization through Data Splitting [25.344386272010397]
そこで我々はCrossSplitと呼ばれるノイズラベルの記憶を緩和するための新しいトレーニング手法を提案する。
CIFAR-10, CIFAR-100, Tiny-ImageNet, およびmini-WebVisionデータセットを用いた実験により, 本手法は幅広いノイズ比において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-03T19:09:56Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - Transfer Learning via Test-Time Neural Networks Aggregation [11.42582922543676]
ディープニューラルネットワークが従来の機械学習より優れていることが示されている。
ディープ・ネットワークは一般性に欠けており、異なる分布から引き出された新しい(テスト)セットでは性能が良くない。
論文 参考訳(メタデータ) (2022-06-27T15:46:05Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Deep Co-Training with Task Decomposition for Semi-Supervised Domain
Adaptation [80.55236691733506]
半教師付きドメイン適応(SSDA)は、ラベル付きソースドメインからトレーニングされたモデルを、異なるが関連するターゲットドメインに適応させることを目的としている。
本稿では,SSDAタスクを対象ドメイン内の半教師付き学習(SSL)タスクと,ドメイン間の非教師付きドメイン適応(UDA)タスクの2つのサブタスクに明示的に分解することを提案する。
論文 参考訳(メタデータ) (2020-07-24T17:57:54Z) - Attentive WaveBlock: Complementarity-enhanced Mutual Networks for
Unsupervised Domain Adaptation in Person Re-identification and Beyond [97.25179345878443]
本稿では,新しい軽量モジュールであるAttentive WaveBlock (AWB)を提案する。
AWBは相互学習の二重ネットワークに統合され、相互学習の相補性を高め、擬似ラベルのノイズをさらに抑えることができる。
実験により, 提案手法は, 複数のUDA人物再識別タスクを大幅に改善し, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-06-11T15:40:40Z) - Combating noisy labels by agreement: A joint training method with
co-regularization [27.578738673827658]
トレーニング中の2つのネットワークの多様性を低減することを目的とした,JoCoRと呼ばれる堅牢な学習パラダイムを提案する。
ノイズラベルを用いた学習において,JoCoRは最先端の多くのアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-05T16:42:41Z) - Network Cooperation with Progressive Disambiguation for Partial Label
Learning [37.05637357091572]
Partial Label Learning (PLL) は、各トレーニングインスタンスが候補ラベルのセットに関連付けられている場合に分類器をトレーニングすることを目的としている。
既存のメソッドはインスタンスの曖昧さを無視し、シングルスレッドのトレーニングメカニズムを採用する。
本稿では,ネットワーク・コラボレーションとプログレッシブ・ディアンビゲーション(NCPD)を併用した新しいアプローチを提案する。
ニューラルネットワークをバックボーンとして利用することにより,相互に相互作用させることで,協調的に2つのネットワークをトレーニングするネットワーク協調機構を利用する。
論文 参考訳(メタデータ) (2020-02-22T09:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。