論文の概要: Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2004.02182v3
- Date: Wed, 8 Apr 2020 07:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 12:18:52.916949
- Title: Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks
- Title(参考訳): カプセル逆ネットワークを用いたマイノリティクラス拡張による不均衡データ学習
- Authors: Pourya Shamsolmoali, Masoumeh Zareapoor, Linlin Shen, Abdul Hamid
Sadka, Jie Yang
- Abstract要約: 本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
- 参考スコア(独自算出の注目度): 31.073558420480964
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The fact that image datasets are often imbalanced poses an intense challenge
for deep learning techniques. In this paper, we propose a method to restore the
balance in imbalanced images, by coalescing two concurrent methods, generative
adversarial networks (GANs) and capsule network. In our model, generative and
discriminative networks play a novel competitive game, in which the generator
generates samples towards specific classes from multivariate probabilities
distribution. The discriminator of our model is designed in a way that while
recognizing the real and fake samples, it is also requires to assign classes to
the inputs. Since GAN approaches require fully observed data during training,
when the training samples are imbalanced, the approaches might generate similar
samples which leading to data overfitting. This problem is addressed by
providing all the available information from both the class components jointly
in the adversarial training. It improves learning from imbalanced data by
incorporating the majority distribution structure in the generation of new
minority samples. Furthermore, the generator is trained with feature matching
loss function to improve the training convergence. In addition, prevents
generation of outliers and does not affect majority class space. The
evaluations show the effectiveness of our proposed methodology; in particular,
the coalescing of capsule-GAN is effective at recognizing highly overlapping
classes with much fewer parameters compared with the convolutional-GAN.
- Abstract(参考訳): 画像データセットがしばしば不均衡であるという事実は、ディープラーニング技術に深刻な課題をもたらす。
本稿では,2つの同時手法であるgans(generative adversarial network)とカプセルネットワークを組み合わせることにより,不均衡画像のバランスを回復する手法を提案する。
本モデルでは,生成ネットワークと識別ネットワークが,多変量確率分布から特定のクラスに対してサンプルを生成する新しい競合ゲームを行う。
我々のモデルの識別器は、実と偽のサンプルを認識しながら、入力にクラスを割り当てる必要があるように設計されている。
ganアプローチはトレーニング中に完全に観測されたデータを必要とするため、トレーニングサンプルが不均衡な場合、同様のサンプルを生成してデータオーバーフィットにつながる可能性がある。
この問題は、両クラスコンポーネントから利用可能なすべての情報を、相反するトレーニングで共同で提供することで解決される。
マイノリティサンプルの生成に多数分布構造を組み込むことにより、不均衡データからの学習を改善する。
さらに、ジェネレータは、訓練収束を改善するために特徴マッチング損失関数で訓練される。
さらに、outlierの生成を防ぎ、多数クラス空間に影響を与えない。
提案手法の有効性,特にカプセルGANの合体は,畳み込みGANに比べて非常に少ないパラメータで重なり合うクラスを認識するのに有効である。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Fair GANs through model rebalancing for extremely imbalanced class
distributions [5.463417677777276]
本稿では,既存のバイアス付きGANからGAN(unbiased generative adversarial Network)を構築するためのアプローチを提案する。
Flickr Faces High Quality (FFHQ) データセットを用いて、人種的公平性をトレーニングしながら、StyleGAN2モデルの結果を示す。
また,不均衡なCIFAR10データセットに適用することで,我々のアプローチをさらに検証する。
論文 参考訳(メタデータ) (2023-08-16T19:20:06Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Efficient Augmentation for Imbalanced Deep Learning [8.38844520504124]
本研究では、畳み込みニューラルネットワークの内部表現である不均衡画像データについて検討する。
モデルの特徴埋め込みとテストセットの一般化ギャップを測定し、マイノリティクラスではそのギャップが広いことを示す。
この洞察により、不均衡なデータのための効率的な3相CNNトレーニングフレームワークを設計できる。
論文 参考訳(メタデータ) (2022-07-13T09:43:17Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Mitigating Dataset Imbalance via Joint Generation and Classification [17.57577266707809]
教師付きディープラーニング手法は、コンピュータビジョンの多くの実践的応用において大きな成功を収めている。
バイアスや不均衡データに対する顕著な性能劣化は、これらの手法の信頼性に疑問を投げかける。
ニューラルネットワーク分類器とGAN(Generative Adversarial Networks)を組み合わせた共同データセット修復戦略を提案する。
重度のクラス不均衡に対する分類器とGANの堅牢性向上に寄与することを示す。
論文 参考訳(メタデータ) (2020-08-12T18:40:38Z) - Oversampling Adversarial Network for Class-Imbalanced Fault Diagnosis [12.526197448825968]
クラス不均衡問題は、データをタイムリーに予測し分類できる堅牢な学習システムを必要とする。
本稿では,同時分類と故障検出のための新しい対向ネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-07T10:12:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。