論文の概要: DropMix: Reducing Class Dependency in Mixed Sample Data Augmentation
- arxiv url: http://arxiv.org/abs/2307.09136v1
- Date: Tue, 18 Jul 2023 10:34:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 15:23:05.384243
- Title: DropMix: Reducing Class Dependency in Mixed Sample Data Augmentation
- Title(参考訳): DropMix: 混合サンプルデータ拡張におけるクラス依存性の削減
- Authors: Haeil Lee, Hansang Lee, Junmo Kim
- Abstract要約: MDA(Mixed sample data augmentation)は、様々なタスクのパフォーマンス向上に広く用いられている技術である。
我々はMSDAの効果がクラスに依存していることを示し、一部のクラスは性能が向上し、他のクラスは低下することを示した。
我々は,MSDA計算から特定のデータの割合を除外したDropMix法を提案する。
- 参考スコア(独自算出の注目度): 26.188493624774747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixed sample data augmentation (MSDA) is a widely used technique that has
been found to improve performance in a variety of tasks. However, in this
paper, we show that the effects of MSDA are class-dependent, with some classes
seeing an improvement in performance while others experience a decline. To
reduce class dependency, we propose the DropMix method, which excludes a
specific percentage of data from the MSDA computation. By training on a
combination of MSDA and non-MSDA data, the proposed method not only improves
the performance of classes that were previously degraded by MSDA, but also
increases overall average accuracy, as shown in experiments on two datasets
(CIFAR-100 and ImageNet) using three MSDA methods (Mixup, CutMix and
PuzzleMix).
- Abstract(参考訳): MDA(Mixed sample data augmentation)は、様々なタスクのパフォーマンスを向上させるために広く使われているテクニックである。
しかし,本稿では,MSDAの効果はクラス依存であり,性能が向上するクラスもあれば,低下するクラスもある。
クラス依存性を低減するために,MSDA計算から特定のデータの割合を除外したDropMix法を提案する。
提案手法は,MSDAデータと非MSDAデータの組み合わせを訓練することにより,MSDAが以前劣化していたクラスの性能を向上させるだけでなく,Mixup, CutMix, PuzzleMixの3つのMSDA手法を用いて,2つのデータセット(CIFAR-100, ImageNet)で示すように,全体の平均精度を向上させる。
関連論文リスト
- AUC-mixup: Deep AUC Maximization with Mixup [47.99058341229214]
AUCは正と負のペアで定義されており、ミックスアップデータ拡張をDAMに組み込むことが難しい。
我々はAUCマージン損失とソフトラベルを定式化に用いて、ミックスアップによって生成されたデータから効果的に学習する。
提案手法が不均衡なベンチマークと医用画像データセットに与える影響を実験的に検証した。
論文 参考訳(メタデータ) (2023-10-18T03:43:11Z) - MiAMix: Enhancing Image Classification through a Multi-stage Augmented
Mixed Sample Data Augmentation Method [0.5919433278490629]
マルチステージAugmented Mixupの略であるMiAMixという新しいミックスアップ手法を提案する。
MiAMixは、画像強化をミックスアップフレームワークに統合し、複数の多様化ミキシング法を同時に利用し、ミキシングマスク増強法をランダムに選択することでミキシング方法を改善する。
近年の手法では、サリエンシ情報を利用し、MiAMixは計算効率も向上し、オーバーヘッドを減らし、既存のトレーニングパイプラインに容易に統合できるようになっている。
論文 参考訳(メタデータ) (2023-08-05T06:29:46Z) - DualMix: Unleashing the Potential of Data Augmentation for Online
Class-Incremental Learning [14.194817677415065]
その結果,元のデータとの相関が低い拡張サンプルの方が,忘れの防止に有効であることが示唆された。
本稿では,拡張サンプルとラベルを同時に混合する拡張ミックスアップ(EnMix)手法を提案する。
クラス不均衡問題を解決するために、決定境界を調整するための適応混合法(AdpMix)を設計する。
論文 参考訳(メタデータ) (2023-03-14T12:55:42Z) - A Survey of Mix-based Data Augmentation: Taxonomy, Methods,
Applications, and Explainability [13.289769314040282]
データ拡張(DA)は、現代の機械学習やディープニューラルネットワークでは不可欠である。
本研究では、MixDA (Mix-based Data Augmentation) の小さなが必須のサブセットについてレビューする。
単一サンプルの操作やドメイン知識を必要とする従来のDAアプローチとは異なり、MixDAはより幅広い新しいデータを作成するのに一般的である。
論文 参考訳(メタデータ) (2022-12-21T09:58:14Z) - FIXED: Frustratingly Easy Domain Generalization with Mixup [53.782029033068675]
ドメイン一般化(Domain Generalization, DG)は、複数のトレーニングドメインから一般化可能なモデルを学ぶことを目的としている。
一般的な戦略は、Mixupcitezhang 2018mixupのようなメソッドによる一般化のためにトレーニングデータを拡張することである。
我々は、MixupベースのDG、すなわちドメイン不変の特徴mIXup(FIX)の簡易かつ効果的な拡張を提案する。
提案手法は,9つの最先端手法よりも優れており,試験精度の面では,ベースラインの平均6.5%を上回っている。
論文 参考訳(メタデータ) (2022-11-07T09:38:34Z) - A Unified Analysis of Mixed Sample Data Augmentation: A Loss Function
Perspective [24.33244008451489]
混合サンプルデータ拡張(MSDA)の最初の統一的理論解析を提案する。
理論的結果から,MSDAは混合戦略の選択によらず,基礎となるトレーニング損失の画素レベルの正則化として振る舞うことが示唆された。
私たちの実装はMixupとCutMixの利点を活用できますが、実装は非常に効率的です。
論文 参考訳(メタデータ) (2022-08-21T15:54:25Z) - CoSMix: Compositional Semantic Mix for Domain Adaptation in 3D LiDAR
Segmentation [62.259239847977014]
我々は,点雲UDA,すなわちコンポジション・セマンティック・ミックス(CoSMix)に対する試料混合の新しい手法を提案する。
CoSMixは2分岐対称ネットワークで構成されており、ラベル付き合成データ(ソース)と現実世界の非競合点雲(ターゲット)を同時に処理することができる。
我々はCoSMixを2つの大規模データセット上で評価し、最先端の手法よりも大きなマージンで優れていることを示した。
論文 参考訳(メタデータ) (2022-07-20T09:33:42Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - Metadata Normalization [54.43363251520749]
バッチ正規化(bn)は、バッチ統計の標準化によって特徴分布を正規化する。
BNは外部変数や複数の分布からの影響を補正していない。
トレーニングフレームワーク内でエンドツーエンドで使用できる新しいバッチレベルのオペレーションであるMetadata Normalizationレイヤを紹介します。
論文 参考訳(メタデータ) (2021-04-19T05:10:26Z) - Unbiased Teacher for Semi-Supervised Object Detection [50.0087227400306]
SS-OD(Semi-Supervised Object Detection)を再検討し,SS-ODにおける擬似ラベルバイアス問題を特定する。
学生と徐々に進歩する教師を相互に利益ある方法で共同で訓練するシンプルで効果的なアプローチであるUnbiased Teacherを紹介します。
論文 参考訳(メタデータ) (2021-02-18T17:02:57Z) - FMix: Enhancing Mixed Sample Data Augmentation [5.820517596386667]
近年,Mixed Sample Data Augmentation (MSDA) が注目されている。
ここでは、MixUpがCutMixのように学習した関数を歪めていることを示す。
低周波画像にしきい値を適用したランダムなバイナリマスクを用いたMSDAであるFMixを提案する。
論文 参考訳(メタデータ) (2020-02-27T11:46:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。