論文の概要: Hair Color Digitization through Imaging and Deep Inverse Graphics
- arxiv url: http://arxiv.org/abs/2202.03723v1
- Date: Tue, 8 Feb 2022 08:57:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 13:51:47.287678
- Title: Hair Color Digitization through Imaging and Deep Inverse Graphics
- Title(参考訳): 画像と深部逆画像による毛髪色ディジタイゼーション
- Authors: Robin Kips, Panagiotis-Alexandros Bokaris, Matthieu Perrot, Pietro
Gori, Isabelle Bloch
- Abstract要約: 逆グラフィックスとディープニューラルネットワークに基づくヘアカラーデジタル化手法を提案する。
提案するパイプラインは, 毛髪サンプルの色相をキャプチャし, 類似した外観で毛髪の合成画像をレンダリングする。
本手法は、制御された撮像装置、経路追跡レンダリング、および自己教師付き機械学習に基づく逆グラフィックモデルの組み合わせに基づく。
- 参考スコア(独自算出の注目度): 8.605763075773746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hair appearance is a complex phenomenon due to hair geometry and how the
light bounces on different hair fibers. For this reason, reproducing a specific
hair color in a rendering environment is a challenging task that requires
manual work and expert knowledge in computer graphics to tune the result
visually. While current hair capture methods focus on hair shape estimation
many applications could benefit from an automated method for capturing the
appearance of a physical hair sample, from augmented/virtual reality to hair
dying development. Building on recent advances in inverse graphics and material
capture using deep neural networks, we introduce a novel method for hair color
digitization. Our proposed pipeline allows capturing the color appearance of a
physical hair sample and renders synthetic images of hair with a similar
appearance, simulating different hair styles and/or lighting environments.
Since rendering realistic hair images requires path-tracing rendering, the
conventional inverse graphics approach based on differentiable rendering is
untractable. Our method is based on the combination of a controlled imaging
device, a path-tracing renderer, and an inverse graphics model based on
self-supervised machine learning, which does not require to use differentiable
rendering to be trained. We illustrate the performance of our hair digitization
method on both real and synthetic images and show that our approach can
accurately capture and render hair color.
- Abstract(参考訳): 毛髪の外観は、髪の形状と異なる繊維に光がどのように反射するかによって複雑な現象である。
そのため、レンダリング環境で特定の毛髪の色を再現することは、視覚的に結果を調整するために手作業とコンピュータグラフィックスの専門知識を必要とする難しい作業である。
現在のヘアキャプチャー法は毛髪形状の推定に重点を置いているが、多くのアプリケーションは、拡張現実(AR)から毛髪死に至る、物理的なヘアサンプルの外観を自動でキャプチャする手法の恩恵を受けることができる。
深層ニューラルネットワークを用いた逆画像と材料キャプチャの最近の進歩に基づいて,髪色デジタル化の新しい手法を提案する。
提案するパイプラインでは, 毛髪サンプルの色相をキャプチャし, 類似した外観の毛髪の合成画像をレンダリングし, 異なる髪型や照明環境をシミュレートする。
写実的なヘアイメージのレンダリングにはパストレーシングレンダリングが必要となるため、従来の微分可能レンダリングに基づく逆グラフィックスアプローチは難解である。
本手法は,制御された撮像装置,パストラッシング・レンダラ,および自己教師あり機械学習に基づく逆グラフィックスモデルを組み合わせたものである。
実画像と合成画像の両方で毛髪のデジタル化手法の性能を解説し, 髪の色を正確に捉え, 描画できることを示す。
関連論文リスト
- HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - FLARE: Fast Learning of Animatable and Relightable Mesh Avatars [64.48254296523977]
私たちのゴールは、幾何学的に正確で、リアルで、楽しい、現在のレンダリングシステムと互換性のあるビデオから、パーソナライズ可能な3Dアバターを効率的に学習することです。
単眼ビデオからアニマタブルアバターとリライトブルアバターの作成を可能にする技術であるFLAREを紹介する。
論文 参考訳(メタデータ) (2023-10-26T16:13:00Z) - Neural Haircut: Prior-Guided Strand-Based Hair Reconstruction [4.714310894654027]
本研究は, 単眼ビデオや多視点画像から, 鎖レベルでの正確な髪形再構成を実現する手法を提案する。
ニューラル・ヘアカット(Neural Haircut)と呼ばれるこの組み合わせシステムは、再建されたヘアスタイルの高度なリアリズムとパーソナライズを実現している。
論文 参考訳(メタデータ) (2023-06-09T13:08:34Z) - HairStep: Transfer Synthetic to Real Using Strand and Depth Maps for
Single-View 3D Hair Modeling [55.57803336895614]
学習型単一視点3Dヘアモデリングの課題に対処する。
まず, ストランドマップと深度マップからなる新しい中間表現をHairStepと呼ぶ。
HairStepは正確な3Dヘアモデリングに十分な情報を提供するだけでなく、実際の画像から推測できる。
論文 参考訳(メタデータ) (2023-03-05T15:28:13Z) - Neural Strands: Learning Hair Geometry and Appearance from Multi-View
Images [40.91569888920849]
マルチビュー画像入力から正確な毛髪形状と外観をモデル化する新しい学習フレームワークであるNeural Strandsを提案する。
学習したヘアモデルは、高忠実度ビュー依存効果のあるあらゆる視点からリアルタイムでレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-28T13:08:46Z) - HVH: Learning a Hybrid Neural Volumetric Representation for Dynamic Hair
Performance Capture [11.645769995924548]
ライフスタイルの毛髪を捕えることは、その微細な幾何学的構造、複雑な物理的相互作用、そして非自明な視覚的外観のために特に困難である。
本稿では,数千のプリミティブで構成された斬新な容積表現を用いる。
提案手法は,記録されたマルチビューシーケンスのリアルなレンダリングを生成するだけでなく,新しい制御信号を提供することで,新しいヘア構成のレンダリングを生成する。
論文 参考訳(メタデータ) (2021-12-13T18:57:50Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - SketchHairSalon: Deep Sketch-based Hair Image Synthesis [36.79413744626908]
所望の毛髪の構造と外観を表現したフリーハンドスケッチから直接リアルな毛髪画像を生成するための枠組みを提案する。
トレーニングされたネットワークと2つのスケッチ補完戦略に基づいて、初心者でも視覚的に喜ぶヘアイメージをデザインできる直感的なインターフェースを構築した。
論文 参考訳(メタデータ) (2021-09-16T11:14:01Z) - Neural Re-Rendering of Humans from a Single Image [80.53438609047896]
本稿では,新しいユーザ定義のポーズと視点の下での人間のニューラルリレンダリング手法を提案する。
私たちのアルゴリズムは、単一の画像から再構築できるパラメトリックメッシュとして体ポーズと形状を表します。
論文 参考訳(メタデータ) (2021-01-11T18:53:47Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z) - Intuitive, Interactive Beard and Hair Synthesis with Generative Models [38.93415643177721]
画像中の顔の毛髪の現実的な変化を合成するためのインタラクティブなアプローチを提案する。
我々はニューラルネットワークパイプラインを用いて、ターゲット画像中の顔の毛髪の現実的で詳細な画像を1秒未満で合成する。
プロトタイプのユーザインタフェースで魅力的なインタラクティブな編集結果を示し、初心者のユーザが生成した画像を段階的に洗練して、所望のヘアスタイルに適合させることができる。
論文 参考訳(メタデータ) (2020-04-15T01:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。