論文の概要: Styleverse: Towards Identity Stylization across Heterogeneous Domains
- arxiv url: http://arxiv.org/abs/2203.00861v1
- Date: Wed, 2 Mar 2022 04:23:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 14:43:58.312851
- Title: Styleverse: Towards Identity Stylization across Heterogeneous Domains
- Title(参考訳): スタイルバース:異種ドメイン間のアイデンティティスタイライゼーションに向けて
- Authors: Jia Li, Jie Cao, JunXian Duan, Ran He
- Abstract要約: 異種ドメイン間のIDS(IDentity Stylization)という課題を提案する。
有効な異種ネットワークベースのフレームワークである$Styleverse$を使用し、単一のドメイン認識ジェネレータを使用します。
$Styleverseは、他の最先端の方法と比較して、より忠実なアイデンティティスタイリングを実現する。
- 参考スコア(独自算出の注目度): 70.13327076710269
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new challenging task namely IDentity Stylization (IDS) across
heterogeneous domains. IDS focuses on stylizing the content identity, rather
than completely swapping it using the reference identity. We use an effective
heterogeneous-network-based framework $Styleverse$ that uses a single
domain-aware generator to exploit the Metaverse of diverse heterogeneous faces,
based on the proposed dataset FS13 with limited data. FS13 means 13 kinds of
Face Styles considering diverse lighting conditions, art representations and
life dimensions. Previous similar tasks, \eg, image style transfer can handle
textural style transfer based on a reference image. This task usually ignores
the high structure-aware facial area and high-fidelity preservation of the
content. However, Styleverse intends to controllably create topology-aware
faces in the Parallel Style Universe, where the source facial identity is
adaptively styled via AdaIN guided by the domain-aware and reference-aware
style embeddings from heterogeneous pretrained models. We first establish the
IDS quantitative benchmark as well as the qualitative Styleverse matrix.
Extensive experiments demonstrate that Styleverse achieves higher-fidelity
identity stylization compared with other state-of-the-art methods.
- Abstract(参考訳): 本稿では,異種ドメイン間のidスタイライゼーション(ids)という新たな課題を提案する。
IDSは、参照IDを使って完全に置き換えるのではなく、コンテンツIDをスタイリングすることに焦点を当てている。
提案したデータセットFS13の限られたデータに基づいて,単一のドメイン認識ジェネレータを使用して多種多様な異種顔のメタバースを利用する。
FS13は、様々な照明条件、芸術表現、生活次元を考慮した13種類のフェイススタイルを意味する。
以前の同様のタスクである \eg, image style transferは、参照イメージに基づいてテキスト形式の転送を処理できる。
このタスクは、通常、高構造認識された顔領域と、コンテンツの高忠実性保存を無視する。
しかし、StyleverseはParallel Style Universeでトポロジーを意識した顔のコントロールを行おうとしており、AdaINを通じて、異種事前学習モデルからのドメイン認識および参照認識スタイルの埋め込みによって、ソースの顔のアイデンティティを適応的にスタイル付けしている。
まずIDS定量的なベンチマークと定性的スタイルバース行列を確立する。
広範な実験により、スタイルバースは他の最先端の手法と比較して高い忠実度のアイデンティティスタイライゼーションを達成できることが示されている。
関連論文リスト
- Generalized Face Anti-spoofing via Finer Domain Partition and Disentangling Liveness-irrelevant Factors [23.325272595629773]
データセットではなくアイデンティティに基づいてドメインを再定義し、生きた属性とアイデンティティ属性をアンタングルすることを目的としています。
提案手法は,クロスデータセットおよび限られたソースデータセットシナリオ下での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-11T07:39:58Z) - Deformable One-shot Face Stylization via DINO Semantic Guidance [12.771707124161665]
本稿では、外観と構造を同時に考慮したワンショット顔スタイリングの問題に対処する。
従来の単一イメージスタイルの参照から切り離された変形認識顔のスタイリングを探索し、代わりにリアルスタイルのイメージペアを選択する。
論文 参考訳(メタデータ) (2024-03-01T11:30:55Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - StyleSwap: Style-Based Generator Empowers Robust Face Swapping [90.05775519962303]
StyleSwapという簡潔で効果的なフレームワークを紹介します。
私たちの中核となる考え方は、スタイルベースのジェネレータを活用して、高忠実で堅牢な顔交換を可能にすることです。
最小限の変更だけで、StyleGAN2アーキテクチャはソースとターゲットの両方から望まれる情報をうまく処理できる。
論文 参考訳(メタデータ) (2022-09-27T16:35:16Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - SAFIN: Arbitrary Style Transfer With Self-Attentive Factorized Instance
Normalization [71.85169368997738]
芸術的スタイル転送は、ある画像のスタイル特性を他の画像に移し、その内容を保持することを目的としている。
自己注意に基づくアプローチは、部分的な成功でこの問題に取り組みましたが、望ましくない成果物に悩まされています。
本論文は,自己意識と正規化という両世界のベストを結合することを目的とする。
論文 参考訳(メタデータ) (2021-05-13T08:01:01Z) - Anisotropic Stroke Control for Multiple Artists Style Transfer [36.92721585146738]
Stroke Control Multi-Artist Style Transferフレームワークを開発した。
異方性ストロークモジュール(ASM)は、様々なスタイルで適応的なセマンティック一貫性を持つネットワークを提供する。
単一スケールの条件付き識別器とは対照的に,識別器はマルチスケールのテクスチャの手がかりを捉えることができる。
論文 参考訳(メタデータ) (2020-10-16T05:32:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。