論文の概要: Feature-Style Encoder for Style-Based GAN Inversion
- arxiv url: http://arxiv.org/abs/2202.02183v1
- Date: Fri, 4 Feb 2022 15:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 15:04:10.357440
- Title: Feature-Style Encoder for Style-Based GAN Inversion
- Title(参考訳): スタイルベースGANインバージョンのための特徴型エンコーダ
- Authors: Xu Yao, Alasdair Newson, Yann Gousseau, Pierre Hellier
- Abstract要約: 本稿では,特徴型エンコーダ(Feature-Style encoder)と呼ばれる,GANインバージョンのための新しいアーキテクチャを提案する。
本モデルは,事前学習したスタイルベースGANモデルの潜在空間から,実画像の正確な逆変換を実現する。
エンコーダ構造のおかげで、モデルは高速で正確な画像編集を可能にする。
- 参考スコア(独自算出の注目度): 1.9116784879310027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel architecture for GAN inversion, which we call
Feature-Style encoder. The style encoder is key for the manipulation of the
obtained latent codes, while the feature encoder is crucial for optimal image
reconstruction. Our model achieves accurate inversion of real images from the
latent space of a pre-trained style-based GAN model, obtaining better
perceptual quality and lower reconstruction error than existing methods. Thanks
to its encoder structure, the model allows fast and accurate image editing.
Additionally, we demonstrate that the proposed encoder is especially
well-suited for inversion and editing on videos. We conduct extensive
experiments for several style-based generators pre-trained on different data
domains. Our proposed method yields state-of-the-art results for style-based
GAN inversion, significantly outperforming competing approaches. Source codes
are available at https://github.com/InterDigitalInc/FeatureStyleEncoder .
- Abstract(参考訳): GAN変換のための新しいアーキテクチャを提案し,これをFeature-Style encoderと呼ぶ。
スタイルエンコーダは得られた潜在符号を操作するための鍵であり、特徴エンコーダは最適な画像再構成に不可欠である。
本モデルは,事前学習型GANモデルの潜時空間からの実画像の正確な逆変換を実現し,既存の手法よりも知覚的品質と再構成誤差の低減を実現する。
エンコーダ構造のおかげで、モデルは高速で正確な画像編集を可能にする。
また,提案するエンコーダは,ビデオの反転や編集に特に適していることを示す。
我々は、異なるデータドメイン上で事前訓練されたスタイルベースのジェネレータの広範な実験を行う。
提案手法は,スタイルベース GAN インバージョンに対する最先端の手法であり,競合する手法よりも優れていた。
ソースコードはhttps://github.com/InterDigitalInc/FeatureStyleEncoderで入手できる。
関連論文リスト
- In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - StyleInV: A Temporal Style Modulated Inversion Network for Unconditional
Video Generation [73.54398908446906]
本稿では,GANのための学習型反転ネットワークを用いた新しいモーションジェネレータの設計を提案する。
本手法は,既訓練のStyleGANジェネレータとエンコーダをペアにした場合に,簡単な微調整でスタイル転送をサポートする。
論文 参考訳(メタデータ) (2023-08-31T17:59:33Z) - TriPlaneNet: An Encoder for EG3D Inversion [1.9567015559455132]
NeRFをベースとしたGANは、人間の頭部の高分解能かつ高忠実な生成モデリングのための多くのアプローチを導入している。
2D GANインバージョンのための普遍的最適化に基づく手法の成功にもかかわらず、3D GANに適用された手法は、結果を新しい視点に外挿することができないかもしれない。
本稿では,EG3D生成モデルに提示された3面表現を直接利用することにより,両者のギャップを埋める高速な手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T17:56:20Z) - 3D-Aware Encoding for Style-based Neural Radiance Fields [50.118687869198716]
我々は、入力画像をNeRFジェネレータの潜時空間に投影する反転関数を学び、潜時符号に基づいて原画像の新しいビューを合成する。
2次元生成モデルのGANインバージョンと比較して、NeRFインバージョンは、1)入力画像の同一性を維持するだけでなく、2)生成した新規なビューにおいて3D一貫性を確保する必要がある。
スタイルベースNeRFインバージョンのための2段階エンコーダを提案する。
論文 参考訳(メタデータ) (2022-11-12T06:14:12Z) - Neural Data-Dependent Transform for Learned Image Compression [72.86505042102155]
ニューラルデータに依存した変換を構築し,各画像の符号化効率を最適化する連続オンラインモード決定機構を導入する。
実験の結果,提案したニューラルシンタクス設計と連続オンラインモード決定機構の有効性が示された。
論文 参考訳(メタデータ) (2022-03-09T14:56:48Z) - AE-StyleGAN: Improved Training of Style-Based Auto-Encoders [21.51697087024866]
StyleGANは、近年、データ生成と操作に関して印象的な成果を上げている。
本稿では, 画像から潜伏空間への逆転過程を容易にし, 実際のデータ再構成を強制することは, より不整合な潜伏空間へと導かれるか?
本稿では,エンコーダとジェネレータをエンドツーエンドに最適化したスタイルベースのオートエンコーダをトレーニングする手法について述べる。
論文 参考訳(メタデータ) (2021-10-17T04:25:51Z) - ReStyle: A Residual-Based StyleGAN Encoder via Iterative Refinement [46.48263482909809]
本稿では,現在のエンコーダに基づくインバージョン法を拡張する新しいインバージョンスキームを提案する。
ReStyleという名前の残差ベースのエンコーダは、現在の最先端のエンコーダベースの手法と比べて、推論時間の無視できるほど精度が向上する。
論文 参考訳(メタデータ) (2021-04-06T17:47:13Z) - In-Domain GAN Inversion for Real Image Editing [56.924323432048304]
トレーニング済みのGANジェネレータに実際のイメージを送出する一般的な方法は、遅延コードに戻すことである。
既存の反転法は、通常、画素値によってターゲット画像の再構成にフォーカスするが、反転したコードは元の潜伏空間のセマンティックドメインに着陸しない。
本稿では、入力画像を忠実に再構成し、変換されたコードが編集に意味のある意味を持つようにするためのドメイン内GAN逆変換手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T18:20:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。