論文の概要: PMC-GANs: Generating Multi-Scale High-Quality Pedestrian with Multimodal
Cascaded GANs
- arxiv url: http://arxiv.org/abs/1912.12799v1
- Date: Mon, 30 Dec 2019 03:30:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 02:32:25.057129
- Title: PMC-GANs: Generating Multi-Scale High-Quality Pedestrian with Multimodal
Cascaded GANs
- Title(参考訳): PMC-GANs:マルチモーダルカスケードGANを用いたマルチスケール高性能ペデストリアンの生成
- Authors: Jie Wu, Ying Peng, Chenghao Zheng, Zongbo Hao, Jian Zhang
- Abstract要約: 本稿では,現実的かつ多様化した歩行者画像を生成するために,PMC-GAN(Casecaded Generative Adversarial Network)を提案する。
このモデルは粗大な方法で構成され、カスケード構造を採用しており、高解像度の歩行者を作るのに有用である。
- 参考スコア(独自算出の注目度): 7.372736990185377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, generative adversarial networks (GANs) have shown great advantages
in synthesizing images, leading to a boost of explorations of using faked
images to augment data. This paper proposes a multimodal cascaded generative
adversarial networks (PMC-GANs) to generate realistic and diversified
pedestrian images and augment pedestrian detection data. The generator of our
model applies a residual U-net structure, with multi-scale residual blocks to
encode features, and attention residual blocks to help decode and rebuild
pedestrian images. The model constructs in a coarse-to-fine fashion and adopts
cascade structure, which is beneficial to produce high-resolution pedestrians.
PMC-GANs outperforms baselines, and when used for data augmentation, it
improves pedestrian detection results.
- Abstract(参考訳): 近年,GAN(Generative Adversarial Network)は画像合成において大きな優位性を示し,偽画像を用いたデータ拡張の探索が進められている。
本稿では, 現実的で多様な歩行者画像を生成し, 歩行者検出データを拡張するためのマルチモーダル・カスケード生成対向ネットワーク(PMC-GAN)を提案する。
本モデルの生成者は,マルチスケールの残差ブロックを符号化する残差u-net構造と,歩行者画像のデコードと再構築を支援する注意残差ブロックを適用する。
このモデルは細部まで粗い構造をしており、高い解像度の歩行者を生み出すのに役立つカスケード構造を採用している。
PMC-GANはベースラインを上回り、データ拡張に使用すると歩行者検出結果が改善される。
関連論文リスト
- Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - A Bayesian Non-parametric Approach to Generative Models: Integrating
Variational Autoencoder and Generative Adversarial Networks using Wasserstein
and Maximum Mean Discrepancy [2.966338139852619]
GAN(Generative Adversarial Network)とVAE(VAE)は、最も顕著で広く研究されている生成モデルである。
ベイズ的非パラメトリック(BNP)アプローチを用いて、GANとVAEを融合する。
本稿では,GANの識別能力とVAEの再構成能力とを融合させることにより,多種多様な生成タスクにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-27T08:58:31Z) - A Simple and Effective Baseline for Attentional Generative Adversarial
Networks [8.63558211869045]
テキスト記述を通して生成モデルを導くことで高品質な画像のテキスト・ツー・イメージモデルを構築することは革新的で挑戦的な課題である。
近年、GANトレーニングをガイドするAttnGAN、SD-GAN、Stack-GAN++が提案されている。
我々は,AttnGANの冗長構造を除去し,バックボーンネットワークを改善するために,一般的なシンプルで効果的なアイデア(1)を用いる。
モデルの性能が変化しないことを保証しながら、モデルのサイズとトレーニング効率を大幅に改善しました。
論文 参考訳(メタデータ) (2023-06-26T13:55:57Z) - GH-Feat: Learning Versatile Generative Hierarchical Features from GANs [61.208757845344074]
画像合成から学習した生成機能は、幅広いコンピュータビジョンタスクを解く上で大きな可能性を秘めていることを示す。
まず,事前学習したStyleGANジェネレータを学習損失関数として考慮し,エンコーダを訓練する。
GH-Feat(Generative Hierarchical Features)と呼ばれるエンコーダが生成する視覚的特徴は、階層的なGAN表現と高度に一致している。
論文 参考訳(メタデータ) (2023-01-12T21:59:46Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Global Filter Networks for Image Classification [90.81352483076323]
本稿では,対数線形複雑度を持つ周波数領域における長期空間依存性を学習する,概念的に単純だが計算効率のよいアーキテクチャを提案する。
この結果から,GFNetはトランスフォーマー型モデルやCNNの効率,一般化能力,堅牢性において,非常に競争力のある代替手段となる可能性が示唆された。
論文 参考訳(メタデータ) (2021-07-01T17:58:16Z) - Improving Augmentation and Evaluation Schemes for Semantic Image
Synthesis [16.097324852253912]
本稿では,GAN(Generative Adversarial Network)に特化して設計された新しい拡張方式を提案する。
本稿では,ジェネレータへの入力として使用するセマンティックラベルマップのオブジェクト形状をランダムにワープする。
ワープされたラベルマップと非ワープされたラベルマップと画像の間の局所的な形状の相違により、GANはシーンの構造的および幾何学的詳細をよりよく学習することができる。
論文 参考訳(メタデータ) (2020-11-25T10:55:26Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z) - AE-OT-GAN: Training GANs from data specific latent distribution [21.48007565143911]
GAN(Generative Adversarial Network)は、現実的かつクリップな画像を生成するモデルである。
GANはしばしばモード崩壊問題に遭遇し、連続DNNを用いて本質的不連続分布変換マップを近似することから訓練に固執する。
最近提案されたAE-OTモデルでは、不連続なdistribu-tion変換マップを明示的に計算することで、この問題に対処している。
本稿では,AE-OT-GANモデルを用いて,高品質な画像を生成すると同時に,モード崩壊/混合問題を克服する。
論文 参考訳(メタデータ) (2020-01-11T01:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。