論文の概要: Realistic Hair Synthesis with Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2209.12875v1
- Date: Tue, 13 Sep 2022 11:48:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 23:50:32.366434
- Title: Realistic Hair Synthesis with Generative Adversarial Networks
- Title(参考訳): 生成逆ネットワークを用いた現実的毛髪合成
- Authors: Muhammed Pektas, Aybars Ugur
- Abstract要約: 本論文では、毛髪合成問題を解決するために、生成逆ネットワーク法を提案する。
本手法は,本手法を開発しながら,文献の最良の手法と競合する視覚的出力を達成しつつ,リアルタイムのヘアシンセサイザーを実現することを目的としている。
- 参考スコア(独自算出の注目度): 1.8275108630751844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent successes in generative modeling have accelerated studies on this
subject and attracted the attention of researchers. One of the most important
methods used to achieve this success is Generative Adversarial Networks (GANs).
It has many application areas such as; virtual reality (VR), augmented reality
(AR), super resolution, image enhancement. Despite the recent advances in hair
synthesis and style transfer using deep learning and generative modelling, due
to the complex nature of hair still contains unsolved challenges. The methods
proposed in the literature to solve this problem generally focus on making
high-quality hair edits on images. In this thesis, a generative adversarial
network method is proposed to solve the hair synthesis problem. While
developing this method, it is aimed to achieve real-time hair synthesis while
achieving visual outputs that compete with the best methods in the literature.
The proposed method was trained with the FFHQ dataset and then its results in
hair style transfer and hair reconstruction tasks were evaluated. The results
obtained in these tasks and the operating time of the method were compared with
MichiGAN, one of the best methods in the literature. The comparison was made at
a resolution of 128x128. As a result of the comparison, it has been shown that
the proposed method achieves competitive results with MichiGAN in terms of
realistic hair synthesis, and performs better in terms of operating time.
- Abstract(参考訳): 最近の生成モデルの成功は、この主題の研究を加速させ、研究者の注目を集めている。
この成功のために使われる最も重要な手法の1つはジェネレーティブ・アドバイサル・ネットワーク(GAN)である。
仮想現実(VR)、拡張現実(AR)、超解像度、画像強調など、多くの応用分野がある。
深層学習と生成モデルを用いたヘアシンセシスとスタイルトランスファーの最近の進歩にもかかわらず、髪の複雑な性質は未解決の課題を含んでいる。
この問題を解決するために文献に提案されている手法は、画像に高品質のヘアエディットを作ることに重点を置いている。
本論文では, 毛髪合成問題を解決するために, 生成的逆ネットワーク法を提案する。
本手法は,本手法を開発しながら,文献の最良の手法と競合する視覚的出力を達成しつつ,リアルタイムの毛髪合成を実現することを目的としている。
提案手法はFFHQデータセットを用いて訓練し,髪型移行と髪型再構成作業の結果を評価した。
これらの課題から得られた結果と手法の運用時期を,文献上で最良の手法であるミシガンと比較した。
比較は128x128の解像度で行われた。
その結果,提案手法はリアルなヘアシンセシスの観点からみればMichigaNと競合する結果が得られ,操作時間の面でも良好な結果が得られた。
関連論文リスト
- SinSR: Diffusion-Based Image Super-Resolution in a Single Step [119.18813219518042]
拡散モデルに基づく超解像(SR)法は有望な結果を示す。
しかし、それらの実践的応用は、必要な推論ステップのかなりの数によって妨げられている。
本稿では,SinSRという単一ステップのSR生成を実現するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:21:29Z) - Efficient-3DiM: Learning a Generalizable Single-image Novel-view
Synthesizer in One Day [63.96075838322437]
シングルイメージのノベルビューシンセサイザーを学習するためのフレームワークを提案する。
当社のフレームワークは,トレーニング時間を10日以内から1日未満に短縮することが可能です。
論文 参考訳(メタデータ) (2023-10-04T17:57:07Z) - Neural Haircut: Prior-Guided Strand-Based Hair Reconstruction [4.714310894654027]
本研究は, 単眼ビデオや多視点画像から, 鎖レベルでの正確な髪形再構成を実現する手法を提案する。
ニューラル・ヘアカット(Neural Haircut)と呼ばれるこの組み合わせシステムは、再建されたヘアスタイルの高度なリアリズムとパーソナライズを実現している。
論文 参考訳(メタデータ) (2023-06-09T13:08:34Z) - Efficient Hair Style Transfer with Generative Adversarial Networks [7.312180925669325]
本稿では,リアルタイム処理を実現するために計算コストを削減できる新しいヘアスタイルトランスファー手法であるEHGANを提案する。
この目的を達成するために、エンコーダと低解像度のジェネレータを訓練してヘアスタイルを転送し、トレーニング済みの超解像モデルで結果の分解能を高める。
EHGANは、最先端のMichigaNとLOHOの2.7倍の時間消費と1万倍以上の時間消費を必要とする。
論文 参考訳(メタデータ) (2022-10-22T18:56:16Z) - Dynamic Dual-Output Diffusion Models [100.32273175423146]
反復分解に基づく生成は、他の生成モデルのクラスに匹敵する品質を示すことが示されている。
この方法の大きな欠点は、競合する結果を生み出すために数百のイテレーションが必要であることである。
近年の研究では、より少ないイテレーションでより高速に生成できるソリューションが提案されているが、画像の品質は徐々に低下している。
論文 参考訳(メタデータ) (2022-03-08T11:20:40Z) - Hair Color Digitization through Imaging and Deep Inverse Graphics [8.605763075773746]
逆グラフィックスとディープニューラルネットワークに基づくヘアカラーデジタル化手法を提案する。
提案するパイプラインは, 毛髪サンプルの色相をキャプチャし, 類似した外観で毛髪の合成画像をレンダリングする。
本手法は、制御された撮像装置、経路追跡レンダリング、および自己教師付き機械学習に基づく逆グラフィックモデルの組み合わせに基づく。
論文 参考訳(メタデータ) (2022-02-08T08:57:04Z) - HVH: Learning a Hybrid Neural Volumetric Representation for Dynamic Hair
Performance Capture [11.645769995924548]
ライフスタイルの毛髪を捕えることは、その微細な幾何学的構造、複雑な物理的相互作用、そして非自明な視覚的外観のために特に困難である。
本稿では,数千のプリミティブで構成された斬新な容積表現を用いる。
提案手法は,記録されたマルチビューシーケンスのリアルなレンダリングを生成するだけでなく,新しい制御信号を提供することで,新しいヘア構成のレンダリングを生成する。
論文 参考訳(メタデータ) (2021-12-13T18:57:50Z) - HairCLIP: Design Your Hair by Text and Reference Image [100.85116679883724]
本稿では, 毛髪属性を個別に, 共同で操作できる新しい毛髪編集インタラクションモードを提案する。
画像とテキストの条件を共有埋め込み空間にエンコードし、統一的なヘア編集フレームワークを提案する。
念入りに設計されたネットワーク構造と損失関数により,我々のフレームワークは高品質な毛髪編集を行うことができる。
論文 参考訳(メタデータ) (2021-12-09T18:59:58Z) - A Simple Baseline for StyleGAN Inversion [133.5868210969111]
StyleGANのインバージョンは、トレーニング済みのStyleGANを実際の顔画像編集タスクに使用できるようにする上で重要な役割を果たす。
既存の最適化ベースの手法は高品質な結果を生み出すことができるが、最適化には時間がかかることが多い。
StyleGANインバージョンのための新しいフィードフォワードネットワークを提示し、効率と品質の面で大幅に改善します。
論文 参考訳(メタデータ) (2021-04-15T17:59:49Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z) - Intuitive, Interactive Beard and Hair Synthesis with Generative Models [38.93415643177721]
画像中の顔の毛髪の現実的な変化を合成するためのインタラクティブなアプローチを提案する。
我々はニューラルネットワークパイプラインを用いて、ターゲット画像中の顔の毛髪の現実的で詳細な画像を1秒未満で合成する。
プロトタイプのユーザインタフェースで魅力的なインタラクティブな編集結果を示し、初心者のユーザが生成した画像を段階的に洗練して、所望のヘアスタイルに適合させることができる。
論文 参考訳(メタデータ) (2020-04-15T01:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。