論文の概要: EigenFairing: 3D Model Fairing using Image Coherence
- arxiv url: http://arxiv.org/abs/2206.05309v1
- Date: Fri, 10 Jun 2022 18:13:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 15:01:03.241368
- Title: EigenFairing: 3D Model Fairing using Image Coherence
- Title(参考訳): EigenFairing:画像コヒーレンスを用いた3次元モデルフェアリング
- Authors: Pragyana Mishra and Omead Amidi and Takeo Kanade
- Abstract要約: 表面はしばしば、メッシュの顔に関連する3Dポイントとテクスチャの三角形メッシュとしてモデル化される。
点が実表面の最大曲率や不連続性の臨界点に置かれない場合、メッシュの面はモデル化された表面の近くには置かれない。
本稿では,物体の観察画像の集合と整合するように頂点を再構成して3次元表面モデルを完成させる手法を提案する。
- 参考スコア(独自算出の注目度): 0.884755712094096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A surface is often modeled as a triangulated mesh of 3D points and textures
associated with faces of the mesh. The 3D points could be either sampled from
range data or derived from a set of images using a stereo or
Structure-from-Motion algorithm. When the points do not lie at critical points
of maximum curvature or discontinuities of the real surface, faces of the mesh
do not lie close to the modeled surface. This results in textural artifacts,
and the model is not perfectly coherent with a set of actual images -- the ones
that are used to texture-map its mesh. This paper presents a technique for
perfecting the 3D surface model by repositioning its vertices so that it is
coherent with a set of observed images of the object. The textural artifacts
and incoherence with images are due to the non-planarity of a surface patch
being approximated by a planar face, as observed from multiple viewpoints.
Image areas from the viewpoints are used to represent texture for the patch in
Eigenspace. The Eigenspace representation captures variations of texture, which
we seek to minimize. A coherence measure based on the difference between the
face textures reconstructed from Eigenspace and the actual images is used to
reposition the vertices so that the model is improved or faired. We refer to
this technique of model refinement as EigenFairing, by which the model is
faired, both geometrically and texturally, to better approximate the real
surface.
- Abstract(参考訳): 表面はしばしば、メッシュの顔に関連する3Dポイントとテクスチャの三角形メッシュとしてモデル化される。
3Dポイントはレンジデータからサンプリングするか、ステレオやStructure-from-Motionアルゴリズムを使って画像の集合から抽出することができる。
点が実表面の最大曲率や不連続性の臨界点に置かれない場合、メッシュの面はモデル化された表面の近くには置かれない。
この結果、テクスチャアーティファクトが生成され、モデルは実際のイメージセットと完全に一貫性を持っていない — メッシュのテクスチャマップに使用されるもの – になります。
本稿では,物体の観察画像の集合と整合するように頂点を再構成して3次元表面モデルを完成させる手法を提案する。
複数の視点から観察されるように、テクスチュラルなアーティファクトと画像とのコヒーレンスは、平面面によって近似される表面パッチの非平面性に起因する。
視点からのイメージ領域は、Eigenspaceのパッチのテクスチャを表すために使用される。
固有空間表現は、我々が最小化しようとするテクスチャのバリエーションを捉える。
固有空間から再構成された顔テクスチャと実際の画像との差に基づくコヒーレンス尺度を用いて、モデルの改善や公正化のために頂点を再配置する。
モデル精錬の手法をEigenFairingと呼び、そのモデルが幾何学的にもテクスチャ的にも公平にフェアリングされ、実際の表面をよりよく近似する。
関連論文リスト
- 3D-GANTex: 3D Face Reconstruction with StyleGAN3-based Multi-View Images and 3DDFA based Mesh Generation [0.8479659578608233]
本稿では,StyleGAN と 3D Morphable Models を用いた単一画像からのテクスチャ推定手法を提案する。
その結果, 生成したメッシュは質が高く, テクスチャ表現がほぼ正確であることが示唆された。
論文 参考訳(メタデータ) (2024-10-21T13:42:06Z) - DreamMesh: Jointly Manipulating and Texturing Triangle Meshes for Text-to-3D Generation [149.77077125310805]
我々はDreamMeshを提案する。DreamMeshは、明確に定義された表面(三角形メッシュ)をピボットして高忠実な3Dモデルを生成する、新しいテキスト・ツー・3Dアーキテクチャである。
粗い段階では、メッシュはまずテキスト誘導ジャコビアンによって変形し、その後DreamMeshは2D拡散モデルを用いてメッシュをテクスチャ化する。
細かい段階では、DreamMeshはメッシュを共同で操作し、テクスチャマップを洗練し、高品質なトライアングルメッシュを高忠実なテクスチャ素材で実現する。
論文 参考訳(メタデータ) (2024-09-11T17:59:02Z) - Bridging 3D Gaussian and Mesh for Freeview Video Rendering [57.21847030980905]
GauMeshはダイナミックシーンのモデリングとレンダリングのために3D GaussianとMeshをブリッジする。
提案手法は, 動的シーンの異なる部分を表現するために, プリミティブの適切なタイプに適応することを示す。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - Texturify: Generating Textures on 3D Shape Surfaces [34.726179801982646]
本研究では3次元入力のテクスチャを予測する3次元形状を学習するためにTexturifyを提案する。
本手法では,3Dオブジェクトの学習に3Dカラー管理は不要である。
論文 参考訳(メタデータ) (2022-04-05T18:00:04Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - Topologically Consistent Multi-View Face Inference Using Volumetric
Sampling [25.001398662643986]
ToFuは、幾何推論フレームワークで、アイデンティティと式をまたいだトポロジ的に一貫したメッシュを生成することができる。
新たなプログレッシブメッシュ生成ネットワークは、顔のトポロジ的構造を特徴量に埋め込む。
これらの高品質な資産は、アバターの作成、アニメーション、物理的にベースとしたスキンレンダリングのためのプロダクションスタジオで容易に利用することができる。
論文 参考訳(メタデータ) (2021-10-06T17:55:08Z) - Plan2Scene: Converting Floorplans to 3D Scenes [36.34298107648571]
住宅のフロアプランと関連する写真の集合をテクスチャ化された3Dメッシュモデルに変換するタスクに対処する。
システム1)は、フロアプラン画像を3Dメッシュモデルに引き上げ、2)入力された写真に基づいて表面テクスチャを合成し、3)グラフニューラルネットワークアーキテクチャを用いて未観測表面のテクスチャを推論する。
論文 参考訳(メタデータ) (2021-06-09T20:32:20Z) - An Effective Loss Function for Generating 3D Models from Single 2D Image
without Rendering [0.0]
微分レンダリングは、シングルビュー3Dレコンストラクションに適用できる非常に成功した技術である。
電流は、ある3d再構成対象のレンダリング画像と、与えられたマッチング視点からの接地画像との間のピクセルによる損失を利用して、3d形状のパラメータを最適化する。
再構成された3次元点群の投影が地上真理物体のシルエットをどの程度覆うかを評価する新しい効果的な損失関数を提案する。
論文 参考訳(メタデータ) (2021-03-05T00:02:18Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。