論文の概要: Intra-Cluster Mixup: An Effective Data Augmentation Technique for Complementary-Label Learning
- arxiv url: http://arxiv.org/abs/2509.17971v1
- Date: Mon, 22 Sep 2025 16:20:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.496552
- Title: Intra-Cluster Mixup: An Effective Data Augmentation Technique for Complementary-Label Learning
- Title(参考訳): クラスタ内混合: 補完的なラベル学習のための効果的なデータ拡張手法
- Authors: Tan-Ha Mai, Hsuan-Tien Lin,
- Abstract要約: 相補的ラベル学習(CLL)の課題について検討する。
CLLは弱い教師付き学習の一種で、モデルには、インスタンスが属さないクラスを示すラベルが付けられている。
本稿では,近隣のサンプルからのみ拡張データを合成するICM(Intra-Cluster Mixup)と呼ばれる改良手法を提案する。
- 参考スコア(独自算出の注目度): 7.601516977968089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the challenges of complementary-label learning (CLL), a specialized form of weakly-supervised learning (WSL) where models are trained with labels indicating classes to which instances do not belong, rather than standard ordinary labels. This alternative supervision is appealing because collecting complementary labels is generally cheaper and less labor-intensive. Although most existing research in CLL emphasizes the development of novel loss functions, the potential of data augmentation in this domain remains largely underexplored. In this work, we uncover that the widely-used Mixup data augmentation technique is ineffective when directly applied to CLL. Through in-depth analysis, we identify that the complementary-label noise generated by Mixup negatively impacts the performance of CLL models. We then propose an improved technique called Intra-Cluster Mixup (ICM), which only synthesizes augmented data from nearby examples, to mitigate the noise effect. ICM carries the benefits of encouraging complementary label sharing of nearby examples, and leads to substantial performance improvements across synthetic and real-world labeled datasets. In particular, our wide spectrum of experimental results on both balanced and imbalanced CLL settings justifies the potential of ICM in allying with state-of-the-art CLL algorithms, achieving significant accuracy increases of 30% and 10% on MNIST and CIFAR datasets, respectively.
- Abstract(参考訳): 本稿では、標準の標準ラベルではなく、インスタンスが属していないクラスを示すラベルを用いてモデルが訓練される、弱教師付き学習(WSL)の専門形式である補完ラベル学習(CLL)の課題について検討する。
補助的なラベルの収集は一般的に安価で、労働集約度が低いため、この代替の監督は魅力的である。
CLLにおける既存の研究のほとんどは、新規な損失関数の発達を強調しているが、この領域におけるデータ拡張の可能性は、大半は未解明のままである。
本研究では,CLLに直接適用した場合,広く使用されているMixupデータ拡張技術が有効でないことを明らかにする。
奥行き解析により,Mixup が生成する補音が CLL モデルの性能に悪影響を及ぼすことを確認した。
次に,近隣のサンプルからのみ拡張データを合成してノイズ効果を緩和する,ICM(Intra-Cluster Mixup)と呼ばれる改良手法を提案する。
ICMは、近隣のサンプルの補完的なラベル共有を促進する利点があり、合成および実世界のラベル付きデータセット間での大幅なパフォーマンス向上につながっている。
特に、バランスの取れたCLL設定と不均衡なCLL設定の両方の実験結果の幅広いスペクトルは、現状のCLLアルゴリズムと相関するICMの可能性を正当化し、MNISTデータセットとCIFARデータセットでそれぞれ30%と10%の精度向上を実現している。
関連論文リスト
- Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Enhancing Label Sharing Efficiency in Complementary-Label Learning with
Label Augmentation [92.4959898591397]
学習中に近隣の事例における補完ラベルの暗黙的な共有を分析した。
相補的なラベル拡張による共有効率を向上させる新しい手法を提案する。
実験結果から,従来のCLLモデルよりも相補的ラベル拡張により経験的性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-05-15T04:43:14Z) - CLImage: Human-Annotated Datasets for Complementary-Label Learning [8.335164415521838]
補完ラベル学習(Complementary-label Learning, CLL)は、補完ラベルのみを用いて多クラス分類器を訓練することを目的とした、弱い教師付き学習パラダイムである。
多くのアルゴリズムによるCLLの提案にもかかわらず、その実用性は2つの理由により検証されていない。
CLLアルゴリズムの実際の性能に関する知見を得るため,人間のアノテータから補完ラベルを収集するプロトコルを開発した。
論文 参考訳(メタデータ) (2023-05-15T01:48:53Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Suppressing Mislabeled Data via Grouping and Self-Attention [60.14212694011875]
ディープネットワークは大規模クリーンなデータに対して優れた結果を得るが、ノイズのあるラベルから学習すると著しく劣化する。
本稿では,概念的にシンプルだが効率的な学習ブロックを提案し,これをAFM(Attentive Feature Mixup)と呼ぶ。
クリーンなサンプルにもっと注意を払うことができ、小さなグループでのサンプルインタラクションを通じて、ラベルを間違えることが少なくなります。
論文 参考訳(メタデータ) (2020-10-29T13:54:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。