論文の概要: Trained Latent Space Navigation to Prevent Lack of Photorealism in
Generated Images on Style-based Models
- arxiv url: http://arxiv.org/abs/2310.00936v1
- Date: Mon, 2 Oct 2023 07:02:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 23:14:16.442795
- Title: Trained Latent Space Navigation to Prevent Lack of Photorealism in
Generated Images on Style-based Models
- Title(参考訳): スタイルベースモデルを用いた画像生成におけるフォトリアリズムの欠如を防止するための潜在空間ナビゲーション
- Authors: Takumi Harada, Kazuyuki Aihara, Hiroyuki Sakai
- Abstract要約: 本稿では,局所潜伏部分空間をよく訓練した単純な教師なし手法を示す。
実験により、局所潜在空間内で生成された画像は光リアリズムを維持していることが示された。
この手法の実証的な証拠は、スタイルベースモデルの応用に役立ちます。
- 参考スコア(独自算出の注目度): 2.386408564310018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies on StyleGAN variants show promising performances for various
generation tasks. In these models, latent codes have traditionally been
manipulated and searched for the desired images. However, this approach
sometimes suffers from a lack of photorealism in generated images due to a lack
of knowledge about the geometry of the trained latent space. In this paper, we
show a simple unsupervised method that provides well-trained local latent
subspace, enabling latent code navigation while preserving the photorealism of
the generated images. Specifically, the method identifies densely mapped latent
spaces and restricts latent manipulations within the local latent subspace.
Experimental results demonstrate that images generated within the local latent
subspace maintain photorealism even when the latent codes are significantly and
repeatedly manipulated. Moreover, experiments show that the method can be
applied to latent code optimization for various types of style-based models.
Our empirical evidence of the method will benefit applications in style-based
models.
- Abstract(参考訳): StyleGAN 変種に関する最近の研究は、様々な世代タスクに有望な性能を示す。
これらのモデルでは、潜在コードは伝統的に操作され、所望の画像を探す。
しかし、このアプローチは、訓練された潜在空間の幾何学に関する知識が不足していることから、生成された画像におけるフォトリアリズムの欠如に苦しむことがある。
本稿では,画像のフォトリアリズムを保ちながら遅延コードナビゲーションが可能な局所潜在部分空間を十分に訓練した簡易な教師なし手法を提案する。
具体的には、密写像された潜伏空間を特定し、局所潜伏部分空間内の潜伏操作を制限する。
実験により, 局所潜時空間内で生成された画像は, 潜時符号が著しくかつ繰り返し操作された場合でも, フォトリアリズムを維持していることが示された。
さらに,この手法を様々なスタイルベースモデルの潜在コード最適化に適用できることを示す実験を行った。
この手法の実証的な証拠は、スタイルベースモデルの応用に役立ちます。
関連論文リスト
- Decoding Diffusion: A Scalable Framework for Unsupervised Analysis of Latent Space Biases and Representations Using Natural Language Prompts [68.48103545146127]
本稿では拡散潜在空間の教師なし探索のための新しい枠組みを提案する。
我々は、自然言語のプロンプトと画像キャプションを直接利用して、遅延方向をマップする。
本手法は,拡散モデルに符号化された意味的知識をよりスケーラブルで解釈可能な理解を提供する。
論文 参考訳(メタデータ) (2024-10-25T21:44:51Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - NoiseCLR: A Contrastive Learning Approach for Unsupervised Discovery of
Interpretable Directions in Diffusion Models [6.254873489691852]
本稿では,テキストのプロンプトに依存することなく,テキスト間拡散モデルにおける潜在意味を検出する教師なし手法を提案する。
提案手法は,拡散法とGAN法を併用した遅延空間編集法において,既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-12-08T22:04:53Z) - Curved Diffusion: A Generative Model With Optical Geometry Control [56.24220665691974]
最終シーンの外観に対する異なる光学系の影響は、しばしば見過ごされる。
本研究では,画像レンダリングに使用される特定のレンズとテキスト画像拡散モデルを密接に統合するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-29T13:06:48Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Adaptively-Realistic Image Generation from Stroke and Sketch with
Diffusion Model [31.652827838300915]
拡散モデルに基づくスケッチやストロークからの画像合成を3次元制御する統合フレームワークを提案する。
我々のフレームワークは、形状、色、リアリズムを制御したカスタマイズ画像の生成に柔軟性を提供しながら、最先端のパフォーマンスを実現している。
提案手法は,実画像の編集,部分スケッチとストロークの生成,マルチドメインマルチモーダル合成などの応用を解き放つ。
論文 参考訳(メタデータ) (2022-08-26T13:59:26Z) - A comparison of different atmospheric turbulence simulation methods for
image restoration [64.24948495708337]
大気の乱流は、長距離イメージングシステムによって捉えられた画像の品質を悪化させる。
深層学習に基づく大気乱流緩和法が文献で提案されている。
様々な乱流シミュレーション手法が画像復元に与える影響を系統的に評価した。
論文 参考訳(メタデータ) (2022-04-19T16:21:36Z) - Improving Inversion and Generation Diversity in StyleGAN using a
Gaussianized Latent Space [41.20193123974535]
現代のジェネレーティブ・アドバイサル・ネットワークは、低次元の学習された潜伏空間に住む潜伏ベクトルから、人工的で写実的な画像を作成することができる。
単純な非線形演算の下では、データ分布はガウス的としてモデル化でき、したがって十分な統計量を用いて表されることを示す。
得られた投影は、実際の画像と生成された画像の両方のパフォーマンスを用いて示されているように、潜在空間のより滑らかでより良い振る舞いの領域にある。
論文 参考訳(メタデータ) (2020-09-14T15:45:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。