論文の概要: Enhancing Label Sharing Efficiency in Complementary-Label Learning with
Label Augmentation
- arxiv url: http://arxiv.org/abs/2305.08344v1
- Date: Mon, 15 May 2023 04:43:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 16:10:36.883240
- Title: Enhancing Label Sharing Efficiency in Complementary-Label Learning with
Label Augmentation
- Title(参考訳): ラベル強化による補足学習におけるラベル共有効率の向上
- Authors: Wei-I Lin, Gang Niu, Hsuan-Tien Lin, Masashi Sugiyama
- Abstract要約: 学習中に近隣の事例における補完ラベルの暗黙的な共有を分析した。
相補的なラベル拡張による共有効率を向上させる新しい手法を提案する。
実験結果から,従来のCLLモデルよりも相補的ラベル拡張により経験的性能が向上することが確認された。
- 参考スコア(独自算出の注目度): 92.4959898591397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Complementary-label Learning (CLL) is a form of weakly supervised learning
that trains an ordinary classifier using only complementary labels, which are
the classes that certain instances do not belong to. While existing CLL studies
typically use novel loss functions or training techniques to solve this
problem, few studies focus on how complementary labels collectively provide
information to train the ordinary classifier. In this paper, we fill the gap by
analyzing the implicit sharing of complementary labels on nearby instances
during training. Our analysis reveals that the efficiency of implicit label
sharing is closely related to the performance of existing CLL models. Based on
this analysis, we propose a novel technique that enhances the sharing
efficiency via complementary-label augmentation, which explicitly propagates
additional complementary labels to each instance. We carefully design the
augmentation process to enrich the data with new and accurate complementary
labels, which provide CLL models with fresh and valuable information to enhance
the sharing efficiency. We then verify our proposed technique by conducting
thorough experiments on both synthetic and real-world datasets. Our results
confirm that complementary-label augmentation can systematically improve
empirical performance over state-of-the-art CLL models.
- Abstract(参考訳): 補足ラベル学習(cll)は、特定のインスタンスが属さないクラスである補足ラベルのみを使用して通常の分類器を訓練する、弱い教師付き学習の一形態である。
既存のCLL研究は、通常、この問題を解決するために新しい損失関数や訓練技術を用いるが、補完ラベルが通常の分類器を訓練するための情報をどのように収集するかに焦点を当てる研究はほとんどない。
本稿では,学習中の周辺インスタンスにおける補完ラベルの暗黙的な共有を分析し,そのギャップを埋める。
分析の結果,暗黙ラベル共有の効率は既存のCLLモデルの性能と密接に関連していることがわかった。
そこで本研究では,補完ラベル拡張による共有効率の向上を図り,各インスタンスに追加の補完ラベルを明示的に伝達する手法を提案する。
我々は、データを新しい正確な補完ラベルで強化するための拡張プロセスを慎重に設計し、CLLモデルに新鮮で価値のある情報を提供し、共有効率を向上させる。
次に,合成データと実世界データの両方について徹底的な実験を行い,提案手法の検証を行った。
実験結果から,従来のCLLモデルよりも相補的ラベル拡張により経験的性能が向上することが確認された。
関連論文リスト
- Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - CLImage: Human-Annotated Datasets for Complementary-Label Learning [8.335164415521838]
我々は,人間のアノテーションから補完ラベルを収集するプロトコルを開発した。
これらのデータセットは、最初の現実世界のCLLデータセットを表している。
我々は,人間の注釈付き補完ラベルの偏りと,補完ラベルのみによる検証の難しさが,実用的CLLの障壁となることを発見した。
論文 参考訳(メタデータ) (2023-05-15T01:48:53Z) - Complementary Labels Learning with Augmented Classes [22.460256396941528]
補完ラベル学習 (Complementary Labels Learning, CLL) は、プライベート質問分類やオンライン学習など、現実世界の多くのタスクに現れる。
CLLAC(Complementary Labels Learning with Augmented Classs)と呼ばれる新しい問題設定を提案する。
ラベルのないデータを用いて,CLLACの分類リスクの偏りのない推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-19T13:55:27Z) - Transductive CLIP with Class-Conditional Contrastive Learning [68.51078382124331]
雑音ラベル付き分類ネットワークをスクラッチから学習するための新しいフレームワークであるTransductive CLIPを提案する。
擬似ラベルへの依存を軽減するために,クラス条件のコントラスト学習機構を提案する。
アンサンブルラベルは、ノイズラベル付きディープニューラルネットワークのトレーニングを安定化するための擬似ラベル更新戦略として採用されている。
論文 参考訳(メタデータ) (2022-06-13T14:04:57Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - Learning Fair Classifiers with Partially Annotated Group Labels [22.838927494573436]
我々は、アノテーション付きグループラベル(FairPG)を用いたアルゴリズムフェアネスと呼ばれるより実践的なシナリオを考える。
フェアネスを意識した学習戦略に容易に適用可能な,簡易な補助グループ割当て(CGL)を提案する。
本手法は, フェアネス基準の観点から, バニラの擬似ラベル方式よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T15:11:18Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Generalized Label Enhancement with Sample Correlations [24.582764493585362]
サンプル相関付きラベル拡張(LESC)と、サンプル相関付きラベル拡張(gLESC)の2つの新しいラベル拡張手法を提案する。
サンプル相関から,提案手法はラベル強化性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-07T03:32:36Z) - Rethinking Curriculum Learning with Incremental Labels and Adaptive
Compensation [35.593312267921256]
人間と同様に、ディープネットワークは、サンプルが組織化され、意味のある順序やカリキュラムで導入されたときに、よりよく学習することが示されている。
インクリメンタルラベルと適応補償を用いた学習(LILAC)を提案する。
論文 参考訳(メタデータ) (2020-01-13T21:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。