論文の概要: Network Cooperation with Progressive Disambiguation for Partial Label
Learning
- arxiv url: http://arxiv.org/abs/2002.11919v1
- Date: Sat, 22 Feb 2020 09:50:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 19:38:04.717448
- Title: Network Cooperation with Progressive Disambiguation for Partial Label
Learning
- Title(参考訳): 部分ラベル学習のためのプログレッシブな曖昧さを伴うネットワーク協調
- Authors: Yao Yao, Chen Gong, Jiehui Deng, Jian Yang
- Abstract要約: Partial Label Learning (PLL) は、各トレーニングインスタンスが候補ラベルのセットに関連付けられている場合に分類器をトレーニングすることを目的としている。
既存のメソッドはインスタンスの曖昧さを無視し、シングルスレッドのトレーニングメカニズムを採用する。
本稿では,ネットワーク・コラボレーションとプログレッシブ・ディアンビゲーション(NCPD)を併用した新しいアプローチを提案する。
ニューラルネットワークをバックボーンとして利用することにより,相互に相互作用させることで,協調的に2つのネットワークをトレーニングするネットワーク協調機構を利用する。
- 参考スコア(独自算出の注目度): 37.05637357091572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial Label Learning (PLL) aims to train a classifier when each training
instance is associated with a set of candidate labels, among which only one is
correct but is not accessible during the training phase. The common strategy
dealing with such ambiguous labeling information is to disambiguate the
candidate label sets. Nonetheless, existing methods ignore the disambiguation
difficulty of instances and adopt the single-trend training mechanism. The
former would lead to the vulnerability of models to the false positive labels
and the latter may arouse error accumulation problem. To remedy these two
drawbacks, this paper proposes a novel approach termed "Network Cooperation
with Progressive Disambiguation" (NCPD) for PLL. Specifically, we devise a
progressive disambiguation strategy of which the disambiguation operations are
performed on simple instances firstly and then gradually on more complicated
ones. Therefore, the negative impacts brought by the false positive labels of
complicated instances can be effectively mitigated as the disambiguation
ability of the model has been strengthened via learning from the simple
instances. Moreover, by employing artificial neural networks as the backbone,
we utilize a network cooperation mechanism which trains two networks
collaboratively by letting them interact with each other. As two networks have
different disambiguation ability, such interaction is beneficial for both
networks to reduce their respective disambiguation errors, and thus is much
better than the existing algorithms with single-trend training process.
Extensive experimental results on various benchmark and practical datasets
demonstrate the superiority of our NCPD to other state-of-the-art PLL methods.
- Abstract(参考訳): 部分ラベル学習(partmental label learning, pll)は、各トレーニングインスタンスが候補ラベルのセットに関連付けられている場合に、分類器をトレーニングすることを目的としている。
このような曖昧なラベル情報を扱う一般的な戦略は、候補ラベルセットを曖昧にすることである。
それでも、既存の方法はインスタンスの曖昧さの難しさを無視し、シングルトレンドトレーニング機構を採用する。
前者は偽陽性のラベルにモデルの脆弱性をもたらし、後者はエラー蓄積問題を引き起こす可能性がある。
本稿では,これら2つの欠点を補うために,PLLのためのネットワーク協調型プログレッシブ・ディアンビゲーション(NCPD)と呼ばれる新しいアプローチを提案する。
具体的には,まず単純なインスタンス上で非曖昧化操作を行い,その後,より複雑なインスタンスで徐々に曖昧化処理を行う漸進的曖昧化戦略を考案する。
したがって、複雑なインスタンスの偽陽性ラベルがもたらす負の影響は、単純なインスタンスから学習することでモデルの曖昧さが強化されたため、効果的に緩和することができる。
さらに,ニューラルネットワークをバックボーンとして利用することにより,相互に対話させることで協調的に2つのネットワークを訓練するネットワーク協調機構を利用する。
2つのネットワークは曖昧さの能力が異なるため、両者の相互作用はそれぞれの曖昧さの誤りを減らすのに有用であり、従ってシングルトレンドトレーニングプロセスを持つ既存のアルゴリズムよりもはるかに優れている。
様々なベンチマークと実践的なデータセットによる大規模な実験結果から、NCPDが他の最先端のPLL法よりも優れていることが示された。
関連論文リスト
- AsyCo: An Asymmetric Dual-task Co-training Model for Partial-label Learning [53.97072488455662]
自己学習モデルは、最先端のパフォーマンスを実現するが、誤って曖昧なインスタンスによって生じるエラーの蓄積問題に悩まされる。
本稿では,2つのネットワーク,すなわち曖昧なネットワークと補助的なネットワークに,異なる視点から明確に学習するよう強制する,AsyCoという非対称なデュアルタスク協調学習モデルを提案する。
AsyCoの有効性を実証するため、一様および一様にラベル付けされた部分ラベル付きデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-07-21T02:08:51Z) - Unsupervised Visible-Infrared Person ReID by Collaborative Learning with Neighbor-Guided Label Refinement [53.044703127757295]
教師なし学習 可視赤外人物再識別 (USL-VI-ReID) は、ラベルなしのクロスモダリティデータセットからモダリティ不変の特徴を学習することを目的としている。
本稿では,生成したラベルを1つのモダリティからそれに対応するモダリティに同時に割り当てる,Dual Optimal Transport Label Assignment (DOTLA) フレームワークを提案する。
提案したDOTLA機構は、相互強化と相互モダリティデータアソシエーションの効率的な解を定式化することにより、不十分でノイズの多いラベルアソシエーションの副作用を効果的に低減することができる。
論文 参考訳(メタデータ) (2023-05-22T04:40:30Z) - Dual Clustering Co-teaching with Consistent Sample Mining for
Unsupervised Person Re-Identification [13.65131691012468]
教師なしのRe-IDでは、擬似ラベルノイズに対処するための効果的な方法として、2つのネットワークを活用したピアティーチング戦略が証明されている。
本稿では,この問題に対処する新しいDCCT手法を提案する。
DCCTは主に2つのネットワークから抽出された特徴を利用して、異なるパラメータのクラスタリングによって2つの擬似ラベルを別々に生成する。
論文 参考訳(メタデータ) (2022-10-07T06:04:04Z) - Meta Objective Guided Disambiguation for Partial Label Learning [44.05801303440139]
メタ客観的ガイド型曖昧化(MoGD)を用いたラベル学習のための新しい枠組みを提案する。
MoGDは、小さな検証セットでメタ目標を解くことで、候補ラベルから基底トラスラベルを復元することを目的としている。
提案手法は,通常のSGDを用いた様々なディープネットワークを用いて容易に実装できる。
論文 参考訳(メタデータ) (2022-08-26T06:48:01Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Dual-Refinement: Joint Label and Feature Refinement for Unsupervised
Domain Adaptive Person Re-Identification [51.98150752331922]
Unsupervised Domain Adaptive (UDA) Person Re-identification (再ID) は、ターゲットドメインデータのラベルが欠落しているため、難しい作業です。
オフラインクラスタリングフェーズにおける擬似ラベルとオンライントレーニングフェーズにおける特徴を共同で改良する,デュアルリファインメントと呼ばれる新しいアプローチを提案する。
本手法は最先端手法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-12-26T07:35:35Z) - Two-phase Pseudo Label Densification for Self-training based Domain
Adaptation [93.03265290594278]
TPLDと呼ばれる,新規な二相擬似ラベル高密度化フレームワークを提案する。
第1フェーズでは,スライディングウインドウ投票を用いて,画像内の内在的空間相関を利用して,自信のある予測を広める。
第2フェーズでは,信頼度に基づく容易な分類を行う。
トレーニングプロセスの容易化と騒音予測の回避を目的として,ブートストラップ機構の導入を行った。
論文 参考訳(メタデータ) (2020-12-09T02:35:25Z) - Combating noisy labels by agreement: A joint training method with
co-regularization [27.578738673827658]
トレーニング中の2つのネットワークの多様性を低減することを目的とした,JoCoRと呼ばれる堅牢な学習パラダイムを提案する。
ノイズラベルを用いた学習において,JoCoRは最先端の多くのアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-05T16:42:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。