論文の概要: Efficient Hair Style Transfer with Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2210.12524v1
- Date: Sat, 22 Oct 2022 18:56:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 18:57:53.064870
- Title: Efficient Hair Style Transfer with Generative Adversarial Networks
- Title(参考訳): 生成型adversarial networkを用いたヘアスタイル転送の効率化
- Authors: Muhammed Pektas, Baris Gecer, Aybars Ugur
- Abstract要約: 本稿では,リアルタイム処理を実現するために計算コストを削減できる新しいヘアスタイルトランスファー手法であるEHGANを提案する。
この目的を達成するために、エンコーダと低解像度のジェネレータを訓練してヘアスタイルを転送し、トレーニング済みの超解像モデルで結果の分解能を高める。
EHGANは、最先端のMichigaNとLOHOの2.7倍の時間消費と1万倍以上の時間消費を必要とする。
- 参考スコア(独自算出の注目度): 7.312180925669325
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite the recent success of image generation and style transfer with
Generative Adversarial Networks (GANs), hair synthesis and style transfer
remain challenging due to the shape and style variability of human hair in
in-the-wild conditions. The current state-of-the-art hair synthesis approaches
struggle to maintain global composition of the target style and cannot be used
in real-time applications due to their high running costs on high-resolution
portrait images. Therefore, We propose a novel hairstyle transfer method,
called EHGAN, which reduces computational costs to enable real-time processing
while improving the transfer of hairstyle with better global structure compared
to the other state-of-the-art hair synthesis methods. To achieve this goal, we
train an encoder and a low-resolution generator to transfer hairstyle and then,
increase the resolution of results with a pre-trained super-resolution model.
We utilize Adaptive Instance Normalization (AdaIN) and design our novel Hair
Blending Block (HBB) to obtain the best performance of the generator. EHGAN
needs around 2.7 times and over 10,000 times less time consumption than the
state-of-the-art MichiGAN and LOHO methods respectively while obtaining better
photorealism and structural similarity to the desired style than its
competitors.
- Abstract(参考訳): 近年,GAN(Generative Adversarial Networks)による画像生成やスタイル転送が成功しているにもかかわらず,毛髪の形状やスタイルの多様性のため,毛髪合成とスタイル転送は依然として困難である。
現在の最先端のヘアシンセシスアプローチは、ターゲットスタイルのグローバルな構成を維持するのに苦労しており、高解像度ポートレート画像の動作コストが高いため、リアルタイムアプリケーションでは使用できない。
そこで本研究では,実時間処理を実現するための計算コストを低減し,他の最先端のヘアシンセシス法と比較して,よりグローバルな構造でヘアスタイルを転送する手法であるehganを提案する。
この目的を達成するために、エンコーダと低解像度のジェネレータを訓練してヘアスタイルを転送し、トレーニング済みの超解像モデルで結果の分解能を高める。
適応型インスタンス正規化(AdaIN)と新しいヘアブレンディングブロック(HBB)を設計して、ジェネレータの最高の性能を得る。
エーガンは、ミシガンやローの手法よりも約2.7倍、時間消費が1万倍少なく、より優れたフォトリアリズムと所望のスタイルと構造的な類似性が得られる。
関連論文リスト
- HairFastGAN: Realistic and Robust Hair Transfer with a Fast Encoder-Based Approach [3.737361598712633]
本稿では,高分解能,ほぼリアルタイムの性能,再現性に優れたHairFastモデルを提案する。
我々のソリューションは、StyleGANのFS潜在空間で動作する新しいアーキテクチャを含む。
ヘアスタイルの形状と色を異なる画像から転送する最も難しいシナリオでは、Nvidia V100上で1秒未満で実行することができる。
論文 参考訳(メタデータ) (2024-04-01T12:59:49Z) - E$^{2}$GAN: Efficient Training of Efficient GANs for Image-to-Image Translation [69.72194342962615]
拡散モデルからGANを蒸留するプロセスは、より効率的にできるのか?
まず、一般化された特徴を持つベースGANモデルを構築し、微調整により異なる概念に適応し、スクラッチからトレーニングの必要性を排除した。
第2に,ベースモデル全体の微調整を行うのではなく,低ランク適応(LoRA)を簡易かつ効果的なランク探索プロセスで行う。
第3に、微調整に必要な最小限のデータ量を調査し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-01-11T18:59:14Z) - Neural Haircut: Prior-Guided Strand-Based Hair Reconstruction [4.714310894654027]
本研究は, 単眼ビデオや多視点画像から, 鎖レベルでの正確な髪形再構成を実現する手法を提案する。
ニューラル・ヘアカット(Neural Haircut)と呼ばれるこの組み合わせシステムは、再建されたヘアスタイルの高度なリアリズムとパーソナライズを実現している。
論文 参考訳(メタデータ) (2023-06-09T13:08:34Z) - StyleSwap: Style-Based Generator Empowers Robust Face Swapping [90.05775519962303]
StyleSwapという簡潔で効果的なフレームワークを紹介します。
私たちの中核となる考え方は、スタイルベースのジェネレータを活用して、高忠実で堅牢な顔交換を可能にすることです。
最小限の変更だけで、StyleGAN2アーキテクチャはソースとターゲットの両方から望まれる情報をうまく処理できる。
論文 参考訳(メタデータ) (2022-09-27T16:35:16Z) - Realistic Hair Synthesis with Generative Adversarial Networks [1.8275108630751844]
本論文では、毛髪合成問題を解決するために、生成逆ネットワーク法を提案する。
本手法は,本手法を開発しながら,文献の最良の手法と競合する視覚的出力を達成しつつ,リアルタイムのヘアシンセサイザーを実現することを目的としている。
論文 参考訳(メタデータ) (2022-09-13T11:48:26Z) - Style Your Hair: Latent Optimization for Pose-Invariant Hairstyle
Transfer via Local-Style-Aware Hair Alignment [29.782276472922398]
本稿では,ポーズ不変なヘアスタイル転送モデルを提案する。
提案モデルでは,より大きなポーズの違い下で髪型を転写し,局所的な髪型テクスチャを保った。
論文 参考訳(メタデータ) (2022-08-16T14:23:54Z) - CCPL: Contrastive Coherence Preserving Loss for Versatile Style Transfer [58.020470877242865]
我々は,芸術的,写真的,映像的スタイルのトランスファーを共同で行うことができる汎用的なスタイルトランスファー手法を考案した。
我々は,グローバル不整合が局所的不整合に支配されているという軽度かつ合理的な仮定を定め,局所的パッチに適用した汎用的コントラストコヒーレンス保存損失(CCPL)を考案する。
CCPLは、スタイル化を低下させることなく、スタイル転送中のコンテンツソースのコヒーレンスを保存することができる。
論文 参考訳(メタデータ) (2022-07-11T12:09:41Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z) - LOHO: Latent Optimization of Hairstyles via Orthogonalization [20.18175263304822]
本稿では, 髪型移動中の潜伏空間における毛髪構造の詳細を埋め込むために, GANインバージョンを用いた最適化に基づくアプローチを提案する。
提案手法は毛髪を知覚的構造,外観,スタイルの3つの属性に分解し,それぞれの属性を個別にモデル化するための調整された損失を含む。
論文 参考訳(メタデータ) (2021-03-05T19:00:33Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z) - Real-time Universal Style Transfer on High-resolution Images via
Zero-channel Pruning [74.09149955786367]
ArtNetは、高解像度画像上の普遍的、リアルタイム、および高品質なスタイル転送を同時に達成することができる。
ArtNetとS2を使用することで、我々の手法は最先端の手法よりも2.3~107.4倍高速である。
論文 参考訳(メタデータ) (2020-06-16T09:50:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。