論文の概要: Free Performance Gain from Mixing Multiple Partially Labeled Samples in Multi-label Image Classification
- arxiv url: http://arxiv.org/abs/2405.15860v1
- Date: Fri, 24 May 2024 18:05:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 02:20:04.432564
- Title: Free Performance Gain from Mixing Multiple Partially Labeled Samples in Multi-label Image Classification
- Title(参考訳): 多ラベル画像分類における複数ラベル付きサンプルの混合によるフリーパフォーマンス向上
- Authors: Chak Fong Chong, Jielong Guo, Xu Yang, Wei Ke, Yapeng Wang,
- Abstract要約: マルチラベル画像分類データセットは、多くのラベルが欠落している場所で部分的にラベル付けされることが多い。
このような部分ラベル付きデータセット用に設計されたミックスアップ変種であるLogicMixを提案する。
LogicMixは、未知のラベルを正しく混合できるように、サンプルラベルを論理ORで混合する。
- 参考スコア(独自算出の注目度): 7.075271495641557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-label image classification datasets are often partially labeled where many labels are missing, posing a significant challenge to training accurate deep classifiers. However, the powerful Mixup sample-mixing data augmentation cannot be well utilized to address this challenge, as it cannot perform linear interpolation on the unknown labels to construct augmented samples. In this paper, we propose LogicMix, a Mixup variant designed for such partially labeled datasets. LogicMix mixes the sample labels by logical OR so that the unknown labels can be correctly mixed by utilizing OR's logical equivalences, including the domination and identity laws. Unlike Mixup, which mixes exactly two samples, LogicMix can mix multiple ($\geq2$) partially labeled samples, constructing visually more confused augmented samples to regularize training. LogicMix is more general and effective than other compared Mixup variants in the experiments on various partially labeled dataset scenarios. Moreover, it is plug-and-play and only requires minimal computation, hence it can be easily inserted into existing frameworks to collaborate with other methods to improve model performance with a negligible impact on training time, as demonstrated through extensive experiments. In particular, through the collaboration of LogicMix, RandAugment, Curriculum Labeling, and Category-wise Fine-Tuning, we attain state-of-the-art performance on MS-COCO, VG-200, and Pascal VOC 2007 benchmarking datasets. The remarkable generality, effectiveness, collaboration, and simplicity suggest that LogicMix promises to be a popular and vital data augmentation method.
- Abstract(参考訳): マルチラベル画像分類データセットは、多くのラベルが欠落している場所で部分的にラベル付けされることが多く、正確な深層分類器を訓練する上で大きな課題となっている。
しかし、この課題に対処するために、強力なミックスアップサンプル混合データ拡張は、未知ラベル上で線形補間を行えないため、十分に利用できない。
本稿では、このような部分ラベル付きデータセット用に設計されたミックスアップ変種であるLogicMixを提案する。
LogicMixはサンプルラベルを論理的ORで混合し、未知のラベルをオーの論理的等価性を利用して正しく混合することができる。
正確に2つのサンプルを混ぜ合わせたMixupとは異なり、LogicMixは複数の($\geq2$)部分的なラベル付きサンプルを混ぜて、視覚的に混乱した拡張現実サンプルを構築してトレーニングを規則化する。
LogicMixは、様々な部分的にラベル付けされたデータセットのシナリオでの実験において、他の比較されたMixよりも一般的で効果的である。
さらに、プラグイン・アンド・プレイであり、最小限の計算しか必要としないため、既存のフレームワークに簡単に挿入して他の手法と協力し、トレーニング時間に無視できない影響でモデルパフォーマンスを改善することができる。
特にLogicMix, RandAugment, Curriculum Labeling, Category-wise Fine-Tuningの協力を得て, MS-COCO, VG-200, Pascal VOC 2007ベンチマークデータセット上で最先端のパフォーマンスを実現した。
注目すべき汎用性、有効性、コラボレーション、単純さは、LogicMixが普及し、重要なデータ拡張メソッドになることを約束していることを示唆している。
関連論文リスト
- SUMix: Mixup with Semantic and Uncertain Information [41.99721365685618]
混合データ拡張アプローチは、ディープラーニングの様々なタスクに応用されている。
そこで我々は,SUMix という新しい手法を提案し,混合率と混合試料の不確かさを学習する。
論文 参考訳(メタデータ) (2024-07-10T16:25:26Z) - PowMix: A Versatile Regularizer for Multimodal Sentiment Analysis [71.8946280170493]
本稿では,単相混合型正規化手法の強みを生かした汎用な埋め込み空間正規化器であるPowMixを紹介する。
PowMixはマルチモーダルアーキテクチャの融合段階の前に統合され、テキストとテキストを混合するなどのモダル内混合を容易にし、レギュレータとして機能する。
論文 参考訳(メタデータ) (2023-12-19T17:01:58Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - CoSMix: Compositional Semantic Mix for Domain Adaptation in 3D LiDAR
Segmentation [62.259239847977014]
我々は,点雲UDA,すなわちコンポジション・セマンティック・ミックス(CoSMix)に対する試料混合の新しい手法を提案する。
CoSMixは2分岐対称ネットワークで構成されており、ラベル付き合成データ(ソース)と現実世界の非競合点雲(ターゲット)を同時に処理することができる。
我々はCoSMixを2つの大規模データセット上で評価し、最先端の手法よりも大きなマージンで優れていることを示した。
論文 参考訳(メタデータ) (2022-07-20T09:33:42Z) - Swapping Semantic Contents for Mixing Images [44.0283695495163]
データ拡張の混合は通常、クラス間のサンプルを無差別に混合するため、ラベル付きサンプルを新たに生成しない。
我々は、画像背景にセマンティックスタイルのコードを埋め込むジェネレータを学ぶことができるSciMixフレームワークを紹介した。
我々は,SciMixが非セマンティックな両親から多くの特徴を継承する新規な混合サンプルを産み出すことを示した。
論文 参考訳(メタデータ) (2022-05-20T13:07:27Z) - Multi-Sample $\zeta$-mixup: Richer, More Realistic Synthetic Samples
from a $p$-Series Interpolant [16.65329510916639]
証明可能かつ明白に望ましい性質を持つ混合の一般化である$zeta$-mixupを提案する。
我々は,$zeta$-mixupの実装がミックスアップよりも高速であることを示し,制御された合成および24の実世界の自然・医療画像分類データセットにおいて,$zeta$-mixupがミックスアップおよび従来のデータ拡張技術より優れていることを示す。
論文 参考訳(メタデータ) (2022-04-07T09:41:09Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - SMILE: Self-Distilled MIxup for Efficient Transfer LEarning [42.59451803498095]
本研究では, SMILE-Self-Distilled Mixup for EffIcient Transfer LEarningを提案する。
混合画像を入力として、SMILEはCNN特徴抽出器の出力を正規化し、入力の混合特徴ベクトルから学習する。
トリプルレギュラライザーは、特徴空間とラベル空間の両方で混合効果のバランスをとりながら、前訓練タスクのサンプル間の線形性をバインドします。
論文 参考訳(メタデータ) (2021-03-25T16:02:21Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。