論文の概要: StyleSpace Analysis: Disentangled Controls for StyleGAN Image Generation
- arxiv url: http://arxiv.org/abs/2011.12799v2
- Date: Thu, 3 Dec 2020 17:30:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 02:39:42.650737
- Title: StyleSpace Analysis: Disentangled Controls for StyleGAN Image Generation
- Title(参考訳): StyleSpace解析:StyleGAN画像生成のためのアンタングル制御
- Authors: Zongze Wu, Dani Lischinski, Eli Shechtman
- Abstract要約: 画像生成のための最先端アーキテクチャであるStyleGAN2の潜在スタイル空間を探索・解析する。
StyleSpace は、以前の研究によって探索された他の中間潜在空間よりもはるかに非絡み合っている。
本研究は, 意味的に意味のある画像操作を, シンプルかつ直感的に行う方法である。
- 参考スコア(独自算出の注目度): 45.20783737095007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore and analyze the latent style space of StyleGAN2, a
state-of-the-art architecture for image generation, using models pretrained on
several different datasets. We first show that StyleSpace, the space of
channel-wise style parameters, is significantly more disentangled than the
other intermediate latent spaces explored by previous works. Next, we describe
a method for discovering a large collection of style channels, each of which is
shown to control a distinct visual attribute in a highly localized and
disentangled manner. Third, we propose a simple method for identifying style
channels that control a specific attribute, using a pretrained classifier or a
small number of example images. Manipulation of visual attributes via these
StyleSpace controls is shown to be better disentangled than via those proposed
in previous works. To show this, we make use of a newly proposed Attribute
Dependency metric. Finally, we demonstrate the applicability of StyleSpace
controls to the manipulation of real images. Our findings pave the way to
semantically meaningful and well-disentangled image manipulations via simple
and intuitive interfaces.
- Abstract(参考訳): 画像生成のための最先端アーキテクチャであるStyleGAN2の潜在スタイル空間を,複数のデータセットで事前学習したモデルを用いて探索,解析する。
まず, チャネルワイズ型パラメータの空間であるスタイル空間が, 先行研究で検討された他の中間的潜在空間よりもかなり不連続であることを示す。
次に,異なる視覚的属性を高度に局所的かつ不連続的に制御する,多数のスタイルチャネル群を探索する手法について述べる。
第3に,事前学習した分類器や少数のサンプル画像を用いて,特定の属性を制御するスタイルチャネルの同定方法を提案する。
これらのStyleSpaceコントロールによる視覚属性の操作は、以前の研究で提案されたものよりも、より不整合であることが示されている。
これを示すために、新しく提案された属性依存性メトリックを利用する。
最後に,実画像の操作に対するスタイルスペース制御の適用性を示す。
本研究は, 意味的に意味のある画像操作を, シンプルかつ直感的に行う方法である。
関連論文リスト
- StyleShot: A Snapshot on Any Style [20.41380860802149]
テスト時間チューニングを伴わない汎用的なスタイル転送には,優れたスタイル表現が不可欠であることを示す。
スタイル認識型エンコーダと、StyleGalleryと呼ばれるよく編成されたスタイルデータセットを構築することで、これを実現する。
当社のアプローチであるStyleShotは,テストタイムチューニングを必要とせずに,さまざまなスタイルを模倣する上で,シンプルかつ効果的なものです。
論文 参考訳(メタデータ) (2024-07-01T16:05:18Z) - SwipeGANSpace: Swipe-to-Compare Image Generation via Efficient Latent Space Exploration [3.864321514889098]
本稿では,シンプルなユーザ・スワイプインタラクションを用いて,ユーザの好みの画像を生成する手法を提案する。
スワイプ操作のみで潜伏空間を効果的に探索するために、StyleGANの潜伏空間に主成分分析を適用する。
我々は、マルチアームのバンディットアルゴリズムを用いて、ユーザの好みに焦点をあてて、探索する次元を決定する。
論文 参考訳(メタデータ) (2024-04-30T16:37:27Z) - Visual Captioning at Will: Describing Images and Videos Guided by a Few
Stylized Sentences [49.66987347397398]
Few-Shot Stylized Visual Captioningは,任意のスタイルでキャプションを生成することを目的としている。
本稿では,条件付きエンコーダ-デコーダ言語モデルとビジュアルプロジェクションモジュールを用いたFS-StyleCapというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-31T04:26:01Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - Attribute-Specific Manipulation Based on Layer-Wise Channels [11.063763802330142]
いくつかの研究は、潜伏符号を操作するための特定の特性を持つチャネルを検出することに重点を置いている。
本稿では,事前学習型分類器の文脈における新しい検出手法を提案する。
本手法は,多数の顔属性の関連チャネルを正確に検出することができる。
論文 参考訳(メタデータ) (2023-02-18T08:49:20Z) - Everything is There in Latent Space: Attribute Editing and Attribute
Style Manipulation by StyleGAN Latent Space Exploration [39.18239951479647]
RAAME (Few-shot Latent-based Attribute Manipulation and Editing) について紹介する。
FLAMEは、遅延空間操作によって高度に制御された画像編集を行うためのフレームワークである。
様々な属性スタイルをアンタングル的に生成する。
論文 参考訳(メタデータ) (2022-07-20T12:40:32Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Attribute-specific Control Units in StyleGAN for Fine-grained Image
Manipulation [57.99007520795998]
特徴マップと変調スタイルの複数のチャネルからなる属性固有制御ユニットを探索する。
具体的には、制御ユニット内の変調スタイルのチャネルと特徴マップを協調的に操作し、意味的および空間的不整合制御を得る。
我々は、特定のスパース方向ベクトルに沿って変調スタイルを移動させ、これらの制御ユニットを操作するために特徴マップを計算するために使用されるフィルタワイズスタイルを置き換える。
論文 参考訳(メタデータ) (2021-11-25T10:42:10Z) - StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery [71.1862388442953]
StyleGAN画像操作のためのテキストベースのインターフェースを開発しています。
まず,ユーザが提案するテキストプロンプトに応答して,CLIPに基づく損失を利用して入力潜時ベクトルを変更する最適化手法を提案する。
次に、与えられた入力画像に対してテキスト誘導の潜時操作ステップを推論し、より高速で安定したテキストベースの操作を可能にする潜時マッパーについて述べる。
論文 参考訳(メタデータ) (2021-03-31T17:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。