論文の概要: Damage GAN: A Generative Model for Imbalanced Data
- arxiv url: http://arxiv.org/abs/2312.04862v1
- Date: Fri, 8 Dec 2023 06:36:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 15:59:39.271992
- Title: Damage GAN: A Generative Model for Imbalanced Data
- Title(参考訳): 損害GAN:不均衡データの生成モデル
- Authors: Ali Anaissi, Yuanzhe Jia, Ali Braytee, Mohamad Naji, Widad Alyassine
- Abstract要約: 本研究では、不均衡データセットの文脈におけるGAN(Generative Adversarial Networks)の適用について検討する。
本稿では,GANとコントラスト学習をシームレスに統合するContraD GANフレームワークを基盤として,損傷GANと呼ばれる新しいネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 1.027461951217988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study delves into the application of Generative Adversarial Networks
(GANs) within the context of imbalanced datasets. Our primary aim is to enhance
the performance and stability of GANs in such datasets. In pursuit of this
objective, we introduce a novel network architecture known as Damage GAN,
building upon the ContraD GAN framework which seamlessly integrates GANs and
contrastive learning. Through the utilization of contrastive learning, the
discriminator is trained to develop an unsupervised representation capable of
distinguishing all provided samples. Our approach draws inspiration from the
straightforward framework for contrastive learning of visual representations
(SimCLR), leading to the formulation of a distinctive loss function. We also
explore the implementation of self-damaging contrastive learning (SDCLR) to
further enhance the optimization of the ContraD GAN model. Comparative
evaluations against baseline models including the deep convolutional GAN
(DCGAN) and ContraD GAN demonstrate the evident superiority of our proposed
model, Damage GAN, in terms of generated image distribution, model stability,
and image quality when applied to imbalanced datasets.
- Abstract(参考訳): この研究は、不均衡データセットのコンテキストにおけるGAN(Generative Adversarial Networks)の適用について検討する。
我々の主な目的は、そのようなデータセットにおけるGANの性能と安定性を高めることである。
この目的を追求するため,我々はコントラD GANフレームワークを基盤として,GANとコントラスト学習をシームレスに統合した新しいネットワークアーキテクチャである損傷GANを導入する。
対照学習の利用により、判別器は提供されたすべてのサンプルを識別できる教師なし表現を開発するように訓練される。
このアプローチは,視覚表現(simclr)のコントラスト学習のための直接的なフレームワークからインスピレーションを得て,特徴的損失関数の定式化に繋がる。
また、ContraD GANモデルをさらに最適化するために、自己損傷型コントラスト学習(SDCLR)の実装についても検討する。
深部畳み込みGAN (DCGAN) やContraD GAN (ContraD GAN) を含むベースラインモデルとの比較評価により,不均衡データセットに適用した場合の画像分布,モデル安定性,画像品質の面で,提案モデルである損傷GANの明らかな優位性を示す。
関連論文リスト
- MCGAN: Enhancing GAN Training with Regression-Based Generator Loss [5.7645234295847345]
高忠実度データを生成する強力なツールとして,GAN(Adversarial Network)が登場している。
我々はモンテカルロガン(MCGAN)と呼ばれるアルゴリズムを提案する。
このアプローチは、革新的生成損失関数、すなわち回帰損失を利用して、回帰タスクとしてジェネレータトレーニングを再構成する。
本手法は, 有効発電機訓練のために, 判別器に弱い条件を必要とすることを示す。
論文 参考訳(メタデータ) (2024-05-27T14:15:52Z) - Benchmarking Zero-Shot Robustness of Multimodal Foundation Models: A Pilot Study [61.65123150513683]
CLIPのようなマルチモーダル基盤モデルは、最先端のゼロショット結果を生成する。
これらのモデルは、ImageNetでトレーニングされた教師付きモデルのパフォーマンスを一致させることで、ロバスト性ギャップを埋めることが報告されている。
CLIPは、ベンチマーク上の教師付きImageNetモデルと比較して、かなりの堅牢性低下をもたらすことを示す。
論文 参考訳(メタデータ) (2024-03-15T17:33:49Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - DifAugGAN: A Practical Diffusion-style Data Augmentation for GAN-based
Single Image Super-resolution [88.13972071356422]
本稿では,DifAugGAN として知られる GAN ベースの画像超解像法(SR) のための拡散型データ拡張手法を提案する。
それは、訓練中の判別器の校正を改善するために、生成拡散モデルに拡散過程を適用することを含む。
我々のDifAugGANは、現在のGANベースのSISR手法のプラグ・アンド・プレイ戦略であり、判別器の校正を改善し、SR性能を向上させることができる。
論文 参考訳(メタデータ) (2023-11-30T12:37:53Z) - A High-Quality Robust Diffusion Framework for Corrupted Dataset [3.7287133112262407]
本稿では,GAN(Generative Adversarial Model)のための第1次ロバスト・ト・アウトリエ拡散法を提案する。
本手法は, 破損したデータセットに対して堅牢性を示し, クリーンなデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2023-11-28T08:05:04Z) - Robust Single Image Dehazing Based on Consistent and Contrast-Assisted
Reconstruction [95.5735805072852]
画像復調モデルのロバスト性を改善するための新しい密度変分学習フレームワークを提案する。
具体的には、デハジングネットワークは、一貫性の規則化されたフレームワークの下で最適化されている。
我々の手法は最先端のアプローチを大きく上回っている。
論文 参考訳(メタデータ) (2022-03-29T08:11:04Z) - Details or Artifacts: A Locally Discriminative Learning Approach to
Realistic Image Super-Resolution [28.00231586840797]
近年,GAN (Generative Adversarial Network) の単一画像超解像 (SISR) が注目されている。
本稿では、視覚的アーチファクトを抑えつつ、知覚的にリアルなディテールを安定的に生成できるGANベースのSISRモデルを訓練できることを実証する。
論文 参考訳(メタデータ) (2022-03-17T09:35:50Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - DeshuffleGAN: A Self-Supervised GAN to Improve Structure Learning [0.0]
我々は、GAN性能を改善する上で重要なポイントの1つは、データ内の空間構造を学習する能力を備えたモデルを提供することであると主張している。
ランダムにシャッフルされた画像タイルのパズルを解くデシャッフルタスクを導入し、デシャッフルGANが空間構造と現実的な外観の表現能力を向上させるのに役立つ。
論文 参考訳(メタデータ) (2020-06-15T19:06:07Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。