論文の概要: SynerMix: Synergistic Mixup Solution for Enhanced Intra-Class Cohesion and Inter-Class Separability in Image Classification
- arxiv url: http://arxiv.org/abs/2403.14137v2
- Date: Sun, 24 Mar 2024 07:58:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 10:51:37.497786
- Title: SynerMix: Synergistic Mixup Solution for Enhanced Intra-Class Cohesion and Inter-Class Separability in Image Classification
- Title(参考訳): SynerMix:画像分類におけるクラス内凝集とクラス間分離性向上のための相乗的混合解法
- Authors: Ye Xu, Ya Gao, Xiaorong Qiu, Yang Chen, Ying Ji,
- Abstract要約: そこで我々はSynerMix-Intraという新しい混合法を提案し,その上にSynerMixという相乗的混合解を導入する。
SynerMix-Intraはクラス内の混合をターゲットとし、クラス内の凝集を促進する。
実験の結果、SynerMixはMixUpとSynerMix-Intraのどちらよりも0.1%から3.43%高い精度を達成しており、平均して1.16%の利益を得ている。
- 参考スコア(独自算出の注目度): 5.86619806485267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address the issues of MixUp and its variants (e.g., Manifold MixUp) in image classification tasks-namely, their neglect of mixing within the same class (intra-class mixup) and their inadequacy in enhancing intra-class cohesion through their mixing operations-we propose a novel mixup method named SynerMix-Intra and, building upon this, introduce a synergistic mixup solution named SynerMix. SynerMix-Intra specifically targets intra-class mixup to bolster intra-class cohesion, a feature not addressed by current mixup methods. For each mini-batch, it leverages feature representations of unaugmented original images from each class to generate a synthesized feature representation through random linear interpolation. All synthesized representations are then fed into the classification and loss layers to calculate an average classification loss that significantly enhances intra-class cohesion. Furthermore, SynerMix combines SynerMix-Intra with an existing mixup approach (e.g., MixUp, Manifold MixUp), which primarily focuses on inter-class mixup and has the benefit of enhancing inter-class separability. In doing so, it integrates both inter- and intra-class mixup in a balanced way while concurrently improving intra-class cohesion and inter-class separability. Experimental results on six datasets show that SynerMix achieves a 0.1% to 3.43% higher accuracy than the best of either MixUp or SynerMix-Intra alone, averaging a 1.16% gain. It also surpasses the top-performer of either Manifold MixUp or SynerMix-Intra by 0.12% to 5.16%, with an average gain of 1.11%. Given that SynerMix is model-agnostic, it holds significant potential for application in other domains where mixup methods have shown promise, such as speech and text classification. Our code is publicly available at: https://github.com/wxitxy/synermix.git.
- Abstract(参考訳): 画像分類タスクにおけるMixUpとその変種(例:Manifold MixUp)の問題に対処するため、同じクラス内での混合の無視(intra-class mixup)と混合操作によるクラス内凝集の強化の不適切さについて、SynerMix-Intraという新しい混合方法を提案し、これに基づいてSynerMixという相乗的混合ソリューションを導入する。
SynerMix-Intraは特に、クラス内の結合を促進するためにクラス内ミックスアップをターゲットにしている。
各ミニバッチに対して、各クラスから未拡張の原画像の特徴表現を利用して、ランダム線形補間により合成された特徴表現を生成する。
合成されたすべての表現は、分類層と損失層に供給され、クラス内の凝集度を著しく高める平均的な分類損失を計算する。
さらにSynerMixは、SynerMix-Intraと既存のミックスアップアプローチ(例えば、MixUp、Manifold MixUp)を組み合わせている。
そうすることで、クラス間の混合とクラス間の分離性を同時に改善しながら、バランスの取れた方法でクラス間の混合を統合できる。
6つのデータセットの実験結果から、SynerMixはMixUpとSynerMix-Intraのどちらよりも0.1%から3.43%高い精度で達成され、平均して1.16%の利益が得られた。
また、Manifold MixUpかSynerMix-Intraのどちらかのトップパフォーマンスを0.12%から5.16%上回り、平均1.11%上昇している。
SynerMixはモデルに依存しないため、音声やテキストの分類など、混合手法が有望である他の領域での応用には大きな可能性を秘めている。
私たちのコードは、https://github.com/wxitxy/synermix.git.comで公開されています。
関連論文リスト
- SUMix: Mixup with Semantic and Uncertain Information [41.99721365685618]
混合データ拡張アプローチは、ディープラーニングの様々なタスクに応用されている。
そこで我々は,SUMix という新しい手法を提案し,混合率と混合試料の不確かさを学習する。
論文 参考訳(メタデータ) (2024-07-10T16:25:26Z) - PowMix: A Versatile Regularizer for Multimodal Sentiment Analysis [71.8946280170493]
本稿では,単相混合型正規化手法の強みを生かした汎用な埋め込み空間正規化器であるPowMixを紹介する。
PowMixはマルチモーダルアーキテクチャの融合段階の前に統合され、テキストとテキストを混合するなどのモダル内混合を容易にし、レギュレータとして機能する。
論文 参考訳(メタデータ) (2023-12-19T17:01:58Z) - Adversarial AutoMixup [50.1874436169571]
本稿では,AdAutomixupを提案する。
画像分類のための堅牢な分類器を訓練するために、挑戦的なサンプルを生成する。
本手法は, 様々な分類シナリオにおいて, 技術状況に優れる。
論文 参考訳(メタデータ) (2023-12-19T08:55:00Z) - Infinite Class Mixup [26.48101652432502]
Mixupは、トレーニングペアのインプットとラベルを補間することで、追加のサンプルが拡張されるディープネットワークのトレーニング戦略である。
本論文は,各混合ペアのラベルを混合する代わりに,分類器を直接混合することにより,この問題に対処することを目的とする。
Infinite Class Mixupは標準のMixupやRegMixupやRemixなど、バランスの取れた、長い尾のついた、データに制約のあるベンチマークにおいて、パフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-05-17T15:27:35Z) - The Benefits of Mixup for Feature Learning [117.93273337740442]
最初に、機能やラベルに異なる線形パラメータを使用するMixupは、標準Mixupと同様のパフォーマンスが得られることを示す。
我々は、特徴雑音データモデルを検討し、Mixupトレーニングが共通の特徴と組み合わせることで、稀な特徴を効果的に学習できることを示します。
対照的に、標準的なトレーニングは共通の特徴しか学べないが、まれな特徴を学べないため、パフォーマンスが悪くなる。
論文 参考訳(メタデータ) (2023-03-15T08:11:47Z) - SMMix: Self-Motivated Image Mixing for Vision Transformers [65.809376136455]
CutMixは視覚変換器(ViT)の性能と一般化能力を決定する重要な拡張戦略である
既存のCutMixの変種は、より一貫性のある混合画像やより正確な混合ラベルを生成することでこの問題に対処している。
本稿では,学習モデルによる画像とラベルの強調を動機づける,効率的かつ効果的な自己運動画像混合法を提案する。
論文 参考訳(メタデータ) (2022-12-26T00:19:39Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - AutoMix: Unveiling the Power of Mixup [34.623943038648164]
サンプル混合ポリシーを適応的に学習するために、識別機能を利用する柔軟性のある一般的な自動混合フレームワークを紹介します。
mixup をプリテキストタスクとして捉え,ミックスサンプル生成とミックスアップ分類という2つのサブプロブレムに分割した。
6つの人気のある分類ベンチマークの実験は、AutoMixが他の主要なミックスアップメソッドを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2021-03-24T07:21:53Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z) - Remix: Rebalanced Mixup [25.733313524035232]
そこで本稿では,Mixupの定式化を緩和し,特徴とラベルの混合係数を解消する新たな正規化手法であるRemixを提案する。
我々は,Mixup,Manifold Mixup,CutMixといった最先端のレギュラー化技術について,クラス不均衡体制下で研究してきた。
iNaturalist 2018では、実世界の大規模不均衡データセット上でRemixを評価した。
論文 参考訳(メタデータ) (2020-07-08T08:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。