論文の概要: Improving GANs for Long-Tailed Data through Group Spectral
Regularization
- arxiv url: http://arxiv.org/abs/2208.09932v1
- Date: Sun, 21 Aug 2022 17:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 12:52:55.742764
- Title: Improving GANs for Long-Tailed Data through Group Spectral
Regularization
- Title(参考訳): グループスペクトル規則化による長期データのためのGANの改善
- Authors: Harsh Rangwani, Naman Jaswani, Tejan Karmali, Varun Jampani, R.
Venkatesh Babu
- Abstract要約: 本稿では, スペクトル爆発によるモード崩壊を防止する新しいグループスペクトル正規化器 (gSR) を提案する。
我々は,gSRが既存の拡張および正規化技術と効果的に組み合わせることで,長期化データ上での最先端の画像生成性能が向上することを発見した。
- 参考スコア(独自算出の注目度): 51.58250647277375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep long-tailed learning aims to train useful deep networks on practical,
real-world imbalanced distributions, wherein most labels of the tail classes
are associated with a few samples. There has been a large body of work to train
discriminative models for visual recognition on long-tailed distribution. In
contrast, we aim to train conditional Generative Adversarial Networks, a class
of image generation models on long-tailed distributions. We find that similar
to recognition, state-of-the-art methods for image generation also suffer from
performance degradation on tail classes. The performance degradation is mainly
due to class-specific mode collapse for tail classes, which we observe to be
correlated with the spectral explosion of the conditioning parameter matrix. We
propose a novel group Spectral Regularizer (gSR) that prevents the spectral
explosion alleviating mode collapse, which results in diverse and plausible
image generation even for tail classes. We find that gSR effectively combines
with existing augmentation and regularization techniques, leading to
state-of-the-art image generation performance on long-tailed data. Extensive
experiments demonstrate the efficacy of our regularizer on long-tailed datasets
with different degrees of imbalance.
- Abstract(参考訳): 深層ロングテール学習(deep long-tailed learning)は、実用的で実世界の不均衡分布上で有用なディープネットワークをトレーニングすることを目的としている。
ロングテール分布の視覚認識のための識別モデルを訓練するための大規模な研究がなされている。
対照的に、我々は長期分布上の画像生成モデルのクラスである条件付き生成適応ネットワークを訓練することを目指している。
認識と同様、画像生成の最先端手法もテールクラスの性能劣化に悩まされている。
性能劣化は主にテールクラスのクラス特異的モード崩壊によるものであり,条件付きパラメータ行列のスペクトル爆発と相関することが確認された。
本稿では, スペクトル爆発によるモード崩壊を防止し, テールクラスにおいても多様な画像生成が可能である新しいグループスペクトル正規化器(gSR)を提案する。
我々はgsrが既存の拡張と正規化技術を効果的に組み合わせ、ロングテールデータでの最先端画像生成性能をもたらすことを見出した。
広範囲な実験により、不均衡の度合いの異なる長いデータセットに対する正則化器の有効性が実証された。
関連論文リスト
- Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - SuperDisco: Super-Class Discovery Improves Visual Recognition for the
Long-Tail [69.50380510879697]
我々は,長い尾の認識のための超クラス表現を発見するアルゴリズムであるSuperDiscoを提案する。
我々は,長期分布を扱うための表現学習を指導するために,超クラスグラフを構築することを学ぶ。
論文 参考訳(メタデータ) (2023-03-31T19:51:12Z) - Long-tailed Recognition by Learning from Latent Categories [70.6272114218549]
本稿ではLatent Categories based long-tail Recognition (LCReg)法を提案する。
具体的には、頭と尾のクラス間で共有されるクラスに依存しない潜在機能群を学習する。
次に、潜在機能に意味データ拡張を適用することで、トレーニングサンプルの多様性を暗黙的に強化する。
論文 参考訳(メタデータ) (2022-06-02T12:19:51Z) - Long-Tailed Classification with Gradual Balanced Loss and Adaptive
Feature Generation [19.17617301462919]
本研究では,不均衡を緩和する新しい手法であるGradual Balanced Loss and Adaptive Feature Generator (GLAG)を提案する。
CIFAR100-LT、ImageNetLT、iNaturalistなどのロングテールデータセットで最先端の結果が得られた。
論文 参考訳(メタデータ) (2022-02-28T01:20:35Z) - Improving Tail-Class Representation with Centroid Contrastive Learning [145.73991900239017]
本稿では,長い尾を持つ表現学習を改善するために,補間型セントロイドコントラスト学習(ICCL)を提案する。
ICCLは、クラス別サンプルとクラス別サンプルの2つの画像を補間し、ICCLの表現が両方のソースクラスのセントロイドを取得するために使用されるようにモデルを訓練する。
我々の結果は、現実世界の長い尾の分布を持つiNaturalist 2018データセットで2.8%の精度向上を示した。
論文 参考訳(メタデータ) (2021-10-19T15:24:48Z) - Long-tailed Recognition by Routing Diverse Distribution-Aware Experts [64.71102030006422]
我々は、RoutIng Diverse Experts (RIDE) と呼ばれる新しい長い尾の分類器を提案する。
複数の専門家とのモデルの分散を減らし、分布を考慮した多様性損失によるモデルバイアスを減らし、動的専門家ルーティングモジュールによる計算コストを削減します。
RIDEは、CIFAR100-LT、ImageNet-LT、iNaturalist 2018ベンチマークで最先端を5%から7%上回っている。
論文 参考訳(メタデータ) (2020-10-05T06:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。