論文の概要: LOHO: Latent Optimization of Hairstyles via Orthogonalization
- arxiv url: http://arxiv.org/abs/2103.03891v1
- Date: Fri, 5 Mar 2021 19:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:55:41.457898
- Title: LOHO: Latent Optimization of Hairstyles via Orthogonalization
- Title(参考訳): LOHO:直交によるヘアスタイルの遅延最適化
- Authors: Rohit Saha and Brendan Duke and Florian Shkurti and Graham W. Taylor
and Parham Aarabi
- Abstract要約: 本稿では, 髪型移動中の潜伏空間における毛髪構造の詳細を埋め込むために, GANインバージョンを用いた最適化に基づくアプローチを提案する。
提案手法は毛髪を知覚的構造,外観,スタイルの3つの属性に分解し,それぞれの属性を個別にモデル化するための調整された損失を含む。
- 参考スコア(独自算出の注目度): 20.18175263304822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hairstyle transfer is challenging due to hair structure differences in the
source and target hair. Therefore, we propose Latent Optimization of Hairstyles
via Orthogonalization (LOHO), an optimization-based approach using GAN
inversion to infill missing hair structure details in latent space during
hairstyle transfer. Our approach decomposes hair into three attributes:
perceptual structure, appearance, and style, and includes tailored losses to
model each of these attributes independently. Furthermore, we propose two-stage
optimization and gradient orthogonalization to enable disentangled latent space
optimization of our hair attributes. Using LOHO for latent space manipulation,
users can synthesize novel photorealistic images by manipulating hair
attributes either individually or jointly, transferring the desired attributes
from reference hairstyles. LOHO achieves a superior FID compared with the
current state-of-the-art (SOTA) for hairstyle transfer. Additionally, LOHO
preserves the subject's identity comparably well according to PSNR and SSIM
when compared to SOTA image embedding pipelines.
- Abstract(参考訳): 毛髪形態の移動は源およびターゲット毛の毛の構造の相違による挑戦的です。
そこで本研究では, 髪型移動時において, ヘア構造の詳細を埋め込むため, GANインバージョンを用いた最適化手法である, オルソゴン化によるヘアスタイルの潜在最適化(LOHO)を提案する。
提案手法は毛髪を知覚的構造,外観,スタイルの3つの属性に分解し,それぞれの属性を個別にモデル化するための調整された損失を含む。
さらに,2段階最適化とグラデーション直交化を提案し,毛髪特性の分散ラタン空間最適化を可能にした。
潜時空間操作にLOHOを用いると、ユーザーは毛髪属性を個別または共同で操作し、所望の属性を基準髪型から転送することで、新しい写実画像を生成することができる。
LOHOはヘアスタイル転送のための現在の最先端技術(SOTA)と比較して優れたFIDを達成する。
さらに、LOHOは、SOTA画像埋め込みパイプラインと比較して、PSNRとSSIMに応じて、被験者のアイデンティティを良好に保持する。
関連論文リスト
- Towards Unified 3D Hair Reconstruction from Single-View Portraits [27.404011546957104]
そこで本研究では,統一パイプラインによるヘアタイプの一視点3D再構成を実現するための新しい手法を提案する。
本実験は, 単一視像からの編み型3次元毛髪と非編み型3次元毛髪の再構築が可能であることを示す。
論文 参考訳(メタデータ) (2024-09-25T12:21:31Z) - HairFastGAN: Realistic and Robust Hair Transfer with a Fast Encoder-Based Approach [3.737361598712633]
本稿では,高分解能,ほぼリアルタイムの性能,再現性に優れたHairFastモデルを提案する。
我々のソリューションは、StyleGANのFS潜在空間で動作する新しいアーキテクチャを含む。
ヘアスタイルの形状と色を異なる画像から転送する最も難しいシナリオでは、Nvidia V100上で1秒未満で実行することができる。
論文 参考訳(メタデータ) (2024-04-01T12:59:49Z) - HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - Anti-Aliased Neural Implicit Surfaces with Encoding Level of Detail [54.03399077258403]
本稿では,高頻度幾何細部リカバリとアンチエイリアス化された新しいビューレンダリングのための効率的なニューラル表現であるLoD-NeuSを提案する。
我々の表現は、光線に沿った円錐状のフラストラム内の多面体化から空間特徴を集約する。
論文 参考訳(メタデータ) (2023-09-19T05:44:00Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - Neural Haircut: Prior-Guided Strand-Based Hair Reconstruction [4.714310894654027]
本研究は, 単眼ビデオや多視点画像から, 鎖レベルでの正確な髪形再構成を実現する手法を提案する。
ニューラル・ヘアカット(Neural Haircut)と呼ばれるこの組み合わせシステムは、再建されたヘアスタイルの高度なリアリズムとパーソナライズを実現している。
論文 参考訳(メタデータ) (2023-06-09T13:08:34Z) - Deep Diversity-Enhanced Feature Representation of Hyperspectral Images [87.47202258194719]
トポロジを改良して3次元畳み込みを補正し,上行階の高次化を図る。
また、要素間の独立性を最大化するために特徴マップに作用する新しい多様性対応正規化(DA-Reg)項を提案する。
提案したRe$3$-ConvSetとDA-Regの優位性を実証するために,様々なHS画像処理および解析タスクに適用する。
論文 参考訳(メタデータ) (2023-01-15T16:19:18Z) - Efficient Hair Style Transfer with Generative Adversarial Networks [7.312180925669325]
本稿では,リアルタイム処理を実現するために計算コストを削減できる新しいヘアスタイルトランスファー手法であるEHGANを提案する。
この目的を達成するために、エンコーダと低解像度のジェネレータを訓練してヘアスタイルを転送し、トレーニング済みの超解像モデルで結果の分解能を高める。
EHGANは、最先端のMichigaNとLOHOの2.7倍の時間消費と1万倍以上の時間消費を必要とする。
論文 参考訳(メタデータ) (2022-10-22T18:56:16Z) - Style Your Hair: Latent Optimization for Pose-Invariant Hairstyle
Transfer via Local-Style-Aware Hair Alignment [29.782276472922398]
本稿では,ポーズ不変なヘアスタイル転送モデルを提案する。
提案モデルでは,より大きなポーズの違い下で髪型を転写し,局所的な髪型テクスチャを保った。
論文 参考訳(メタデータ) (2022-08-16T14:23:54Z) - High-resolution Face Swapping via Latent Semantics Disentanglement [50.23624681222619]
本稿では,事前学習したGANモデルの事前知識を用いた,新しい高分解能幻覚顔交換法を提案する。
我々は、ジェネレータの進行的な性質を利用して、潜在意味論を明示的に解き放つ。
我々は,2時間制約を潜時空間と画像空間に課すことにより,映像面スワップに拡張する。
論文 参考訳(メタデータ) (2022-03-30T00:33:08Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。