論文の概要: Improving Image Classification Accuracy through Complementary Intra-Class and Inter-Class Mixup
- arxiv url: http://arxiv.org/abs/2403.14137v1
- Date: Thu, 21 Mar 2024 05:13:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 15:27:06.122262
- Title: Improving Image Classification Accuracy through Complementary Intra-Class and Inter-Class Mixup
- Title(参考訳): 相補的クラス内およびクラス間混合による画像分類精度の向上
- Authors: Ye Xu, Ya Gao, Xiaorong Qiu, Yang Chen, Ying Ji,
- Abstract要約: 本稿では,新しい混合手法と総合的な統合ソリューションを提案する。
我々のアプローチは特にクラス内ミックスアップをターゲットとしており、一般的に見過ごされる側面である。
統合された解法では,MixUp法やクラス内混合法よりも0.1%から3.43%高い精度を実現している。
- 参考スコア(独自算出の注目度): 5.86619806485267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: MixUp and its variants, such as Manifold MixUp, have two key limitations in image classification tasks. First, they often neglect mixing within the same class (intra-class mixup), leading to an underutilization of the relationships among samples within the same class. Second, although these methods effectively enhance inter-class separability by mixing between different classes (inter-class mixup), they fall short in improving intra-class cohesion through their mixing operations, limiting their classification performance. To tackle these issues, we propose a novel mixup method and a comprehensive integrated solution.Our mixup approach specifically targets intra-class mixup, an aspect commonly overlooked, to strengthen intra-class cohesion-a feature not provided by current mixup techniques.For each mini-batch, our method utilizes feature representations of unaugmented original images from each class within the mini-batch to generate a single synthesized feature representation through random linear interpolation. All synthesized representations for this mini-batch are then fed into the classification and loss layers to calculate an average classification loss that can markedly enhance intra-class cohesion. Moreover, our integrated solution seamlessly combines our intra-class mixup method with an existing mixup approach such as MixUp or Manifold MixUp. This comprehensive solution incorporates inter- and intra-class mixup in a balanced manner while concurrently improving intra-class cohesion and inter-class separability. Experimental results on six public datasets demonstrate that our integrated solution achieves a 0.1% to 3.43% higher accuracy than the best of either MixUp or our intra-class mixup method, averaging a 1.16% gain. It also outperforms the better performer of either Manifold MixUp or our intra-class mixup method by 0.12% to 5.16%, with an average gain of 1.11%.
- Abstract(参考訳): Manifold MixUpのようなMixUpとその変種には、画像分類タスクに2つの重要な制限がある。
まず、彼らはしばしば同じクラス内の混合(クラス内の混合)を無視し、同じクラス内のサンプル間の関係を未利用にする。
第2に,これらの手法はクラス間の混合によるクラス間分離性を効果的に向上するが,混合操作によるクラス内凝集の改善が不足し,分類性能が制限される。
これらの課題に対処するため,我々は,新しい混合手法と包括的統合解を提案する。我々のミックスアップ手法は,従来の混合手法では提供されていないクラス内凝集度を向上するため,特にクラス内混合を対象とし,各ミニバッチでは,ミニバッチ内の各クラスからの未拡張オリジナル画像の特徴表現を用いて,ランダム線形補間による単一合成特徴表現を生成する。
このミニバッチのすべての合成表現は、分類層と損失層に入力され、クラス内の凝集度を著しく高める平均的な分類損失を計算する。
さらに、私たちの統合ソリューションは、クラス内ミックスアップメソッドとMixUpやManifold MixUpのような既存のミックスアップアプローチをシームレスに組み合わせます。
この包括的ソリューションは、クラス内結合とクラス間分離性を同時に改善しながら、クラス内およびクラス内混合をバランスよく組み込む。
6つの公開データセットに対する実験結果から、我々の統合されたソリューションはMixUpまたは私たちのクラス内混合方式のベストよりも0.1%から3.43%高い精度を実現し、平均1.16%のゲインを達成していることが示された。
また、Manifold MixUpまたは私たちのクラス内ミックスアップメソッドのパフォーマンスも0.12%から5.16%向上し、平均1.11%向上した。
関連論文リスト
- SUMix: Mixup with Semantic and Uncertain Information [41.99721365685618]
混合データ拡張アプローチは、ディープラーニングの様々なタスクに応用されている。
そこで我々は,SUMix という新しい手法を提案し,混合率と混合試料の不確かさを学習する。
論文 参考訳(メタデータ) (2024-07-10T16:25:26Z) - PowMix: A Versatile Regularizer for Multimodal Sentiment Analysis [71.8946280170493]
本稿では,単相混合型正規化手法の強みを生かした汎用な埋め込み空間正規化器であるPowMixを紹介する。
PowMixはマルチモーダルアーキテクチャの融合段階の前に統合され、テキストとテキストを混合するなどのモダル内混合を容易にし、レギュレータとして機能する。
論文 参考訳(メタデータ) (2023-12-19T17:01:58Z) - Adversarial AutoMixup [50.1874436169571]
本稿では,AdAutomixupを提案する。
画像分類のための堅牢な分類器を訓練するために、挑戦的なサンプルを生成する。
本手法は, 様々な分類シナリオにおいて, 技術状況に優れる。
論文 参考訳(メタデータ) (2023-12-19T08:55:00Z) - Infinite Class Mixup [26.48101652432502]
Mixupは、トレーニングペアのインプットとラベルを補間することで、追加のサンプルが拡張されるディープネットワークのトレーニング戦略である。
本論文は,各混合ペアのラベルを混合する代わりに,分類器を直接混合することにより,この問題に対処することを目的とする。
Infinite Class Mixupは標準のMixupやRegMixupやRemixなど、バランスの取れた、長い尾のついた、データに制約のあるベンチマークにおいて、パフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-05-17T15:27:35Z) - The Benefits of Mixup for Feature Learning [117.93273337740442]
最初に、機能やラベルに異なる線形パラメータを使用するMixupは、標準Mixupと同様のパフォーマンスが得られることを示す。
我々は、特徴雑音データモデルを検討し、Mixupトレーニングが共通の特徴と組み合わせることで、稀な特徴を効果的に学習できることを示します。
対照的に、標準的なトレーニングは共通の特徴しか学べないが、まれな特徴を学べないため、パフォーマンスが悪くなる。
論文 参考訳(メタデータ) (2023-03-15T08:11:47Z) - SMMix: Self-Motivated Image Mixing for Vision Transformers [65.809376136455]
CutMixは視覚変換器(ViT)の性能と一般化能力を決定する重要な拡張戦略である
既存のCutMixの変種は、より一貫性のある混合画像やより正確な混合ラベルを生成することでこの問題に対処している。
本稿では,学習モデルによる画像とラベルの強調を動機づける,効率的かつ効果的な自己運動画像混合法を提案する。
論文 参考訳(メタデータ) (2022-12-26T00:19:39Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - AutoMix: Unveiling the Power of Mixup [34.623943038648164]
サンプル混合ポリシーを適応的に学習するために、識別機能を利用する柔軟性のある一般的な自動混合フレームワークを紹介します。
mixup をプリテキストタスクとして捉え,ミックスサンプル生成とミックスアップ分類という2つのサブプロブレムに分割した。
6つの人気のある分類ベンチマークの実験は、AutoMixが他の主要なミックスアップメソッドを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2021-03-24T07:21:53Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z) - Remix: Rebalanced Mixup [25.733313524035232]
そこで本稿では,Mixupの定式化を緩和し,特徴とラベルの混合係数を解消する新たな正規化手法であるRemixを提案する。
我々は,Mixup,Manifold Mixup,CutMixといった最先端のレギュラー化技術について,クラス不均衡体制下で研究してきた。
iNaturalist 2018では、実世界の大規模不均衡データセット上でRemixを評価した。
論文 参考訳(メタデータ) (2020-07-08T08:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。