論文の概要: EigenFairing: 3D Model Fairing using Image Coherence
- arxiv url: http://arxiv.org/abs/2206.05309v1
- Date: Fri, 10 Jun 2022 18:13:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 15:01:03.241368
- Title: EigenFairing: 3D Model Fairing using Image Coherence
- Title(参考訳): EigenFairing:画像コヒーレンスを用いた3次元モデルフェアリング
- Authors: Pragyana Mishra and Omead Amidi and Takeo Kanade
- Abstract要約: 表面はしばしば、メッシュの顔に関連する3Dポイントとテクスチャの三角形メッシュとしてモデル化される。
点が実表面の最大曲率や不連続性の臨界点に置かれない場合、メッシュの面はモデル化された表面の近くには置かれない。
本稿では,物体の観察画像の集合と整合するように頂点を再構成して3次元表面モデルを完成させる手法を提案する。
- 参考スコア(独自算出の注目度): 0.884755712094096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A surface is often modeled as a triangulated mesh of 3D points and textures
associated with faces of the mesh. The 3D points could be either sampled from
range data or derived from a set of images using a stereo or
Structure-from-Motion algorithm. When the points do not lie at critical points
of maximum curvature or discontinuities of the real surface, faces of the mesh
do not lie close to the modeled surface. This results in textural artifacts,
and the model is not perfectly coherent with a set of actual images -- the ones
that are used to texture-map its mesh. This paper presents a technique for
perfecting the 3D surface model by repositioning its vertices so that it is
coherent with a set of observed images of the object. The textural artifacts
and incoherence with images are due to the non-planarity of a surface patch
being approximated by a planar face, as observed from multiple viewpoints.
Image areas from the viewpoints are used to represent texture for the patch in
Eigenspace. The Eigenspace representation captures variations of texture, which
we seek to minimize. A coherence measure based on the difference between the
face textures reconstructed from Eigenspace and the actual images is used to
reposition the vertices so that the model is improved or faired. We refer to
this technique of model refinement as EigenFairing, by which the model is
faired, both geometrically and texturally, to better approximate the real
surface.
- Abstract(参考訳): 表面はしばしば、メッシュの顔に関連する3Dポイントとテクスチャの三角形メッシュとしてモデル化される。
3Dポイントはレンジデータからサンプリングするか、ステレオやStructure-from-Motionアルゴリズムを使って画像の集合から抽出することができる。
点が実表面の最大曲率や不連続性の臨界点に置かれない場合、メッシュの面はモデル化された表面の近くには置かれない。
この結果、テクスチャアーティファクトが生成され、モデルは実際のイメージセットと完全に一貫性を持っていない — メッシュのテクスチャマップに使用されるもの – になります。
本稿では,物体の観察画像の集合と整合するように頂点を再構成して3次元表面モデルを完成させる手法を提案する。
複数の視点から観察されるように、テクスチュラルなアーティファクトと画像とのコヒーレンスは、平面面によって近似される表面パッチの非平面性に起因する。
視点からのイメージ領域は、Eigenspaceのパッチのテクスチャを表すために使用される。
固有空間表現は、我々が最小化しようとするテクスチャのバリエーションを捉える。
固有空間から再構成された顔テクスチャと実際の画像との差に基づくコヒーレンス尺度を用いて、モデルの改善や公正化のために頂点を再配置する。
モデル精錬の手法をEigenFairingと呼び、そのモデルが幾何学的にもテクスチャ的にも公平にフェアリングされ、実際の表面をよりよく近似する。
関連論文リスト
- Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - Pruning-based Topology Refinement of 3D Mesh using a 2D Alpha Mask [6.103988053817792]
本稿では,顔解析手法を用いて,任意の3次元メッシュのトポロジを洗練させる手法を提案する。
私たちのソリューションは、それぞれの顔を2次元のソフトマップとして描画する微分可能を利用しています。
我々のモジュールは3Dメッシュを生成するネットワークに非依存であるため、自己管理されたイメージベースの3D再構成パイプラインに簡単に接続することができる。
論文 参考訳(メタデータ) (2022-10-17T14:51:38Z) - Texturify: Generating Textures on 3D Shape Surfaces [34.726179801982646]
本研究では3次元入力のテクスチャを予測する3次元形状を学習するためにTexturifyを提案する。
本手法では,3Dオブジェクトの学習に3Dカラー管理は不要である。
論文 参考訳(メタデータ) (2022-04-05T18:00:04Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - Topologically Consistent Multi-View Face Inference Using Volumetric
Sampling [25.001398662643986]
ToFuは、幾何推論フレームワークで、アイデンティティと式をまたいだトポロジ的に一貫したメッシュを生成することができる。
新たなプログレッシブメッシュ生成ネットワークは、顔のトポロジ的構造を特徴量に埋め込む。
これらの高品質な資産は、アバターの作成、アニメーション、物理的にベースとしたスキンレンダリングのためのプロダクションスタジオで容易に利用することができる。
論文 参考訳(メタデータ) (2021-10-06T17:55:08Z) - Plan2Scene: Converting Floorplans to 3D Scenes [36.34298107648571]
住宅のフロアプランと関連する写真の集合をテクスチャ化された3Dメッシュモデルに変換するタスクに対処する。
システム1)は、フロアプラン画像を3Dメッシュモデルに引き上げ、2)入力された写真に基づいて表面テクスチャを合成し、3)グラフニューラルネットワークアーキテクチャを用いて未観測表面のテクスチャを推論する。
論文 参考訳(メタデータ) (2021-06-09T20:32:20Z) - An Effective Loss Function for Generating 3D Models from Single 2D Image
without Rendering [0.0]
微分レンダリングは、シングルビュー3Dレコンストラクションに適用できる非常に成功した技術である。
電流は、ある3d再構成対象のレンダリング画像と、与えられたマッチング視点からの接地画像との間のピクセルによる損失を利用して、3d形状のパラメータを最適化する。
再構成された3次元点群の投影が地上真理物体のシルエットをどの程度覆うかを評価する新しい効果的な損失関数を提案する。
論文 参考訳(メタデータ) (2021-03-05T00:02:18Z) - NeuTex: Neural Texture Mapping for Volumetric Neural Rendering [48.83181790635772]
本稿では,ジオメトリ-連続3次元ボリューム-出現-連続2次元テクスチャマップとして表現-を明示的に切り離す手法を提案する。
我々は,この表現を多視点画像監視のみを用いて再構成し,高品質なレンダリング結果を生成することを実証した。
論文 参考訳(メタデータ) (2021-03-01T05:34:51Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。