論文の概要: Mesh Conflation of Oblique Photogrammetric Models using Virtual Cameras
and Truncated Signed Distance Field
- arxiv url: http://arxiv.org/abs/2308.12139v1
- Date: Wed, 23 Aug 2023 13:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 13:55:49.379120
- Title: Mesh Conflation of Oblique Photogrammetric Models using Virtual Cameras
and Truncated Signed Distance Field
- Title(参考訳): 仮想カメラとTrncated Signed Distance Fieldを用いた斜めフォトグラムモデルのメッシュ相関
- Authors: Shuang Song, Rongjun Qin
- Abstract要約: 本稿では,複数のフル3次元斜めフォトグラムモデルを単一かつシームレスなメッシュに融合する新しい手法を提案する。
ドローンをベースとした3Dメッシュでは,従来のモデルの融合手法により,アプローチが大幅に改善されることが示されている。
- 参考スコア(独自算出の注目度): 9.302957830475375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conflating/stitching 2.5D raster digital surface models (DSM) into a large
one has been a running practice in geoscience applications, however, conflating
full-3D mesh models, such as those from oblique photogrammetry, is extremely
challenging. In this letter, we propose a novel approach to address this
challenge by conflating multiple full-3D oblique photogrammetric models into a
single, and seamless mesh for high-resolution site modeling. Given two or more
individually collected and created photogrammetric meshes, we first propose to
create a virtual camera field (with a panoramic field of view) to incubate
virtual spaces represented by Truncated Signed Distance Field (TSDF), an
implicit volumetric field friendly for linear 3D fusion; then we adaptively
leverage the truncated bound of meshes in TSDF to conflate them into a single
and accurate full 3D site model. With drone-based 3D meshes, we show that our
approach significantly improves upon traditional methods for model conflations,
to drive new potentials to create excessively large and accurate full 3D mesh
models in support of geoscience and environmental applications.
- Abstract(参考訳): 2.5dラスターのデジタルサーフェスモデル(dsm)を大規模に融合・固定することは、地球科学の応用における実例であるが、斜めフォトグラメトリーのようなフル3dメッシュモデルを統合することは極めて困難である。
本稿では,複数のフル3次元斜めフォトグラムモデルを高分解能サイトモデリングのための単一かつシームレスなメッシュに融合することで,この問題に対処する新しい手法を提案する。
2つ以上の個別に収集・作成されたフォトグラムメッシュについて,まず,線形3次元融合に好適な暗黙的な体積場であるトランジット・サイン付き距離場(tsdf)で表現される仮想空間をインキュベートする仮想カメラ場(パノラマ視野)を作成することを提案する。
ドローンベースの3dメッシュによって、従来のモデルコンフレーションの方法を大幅に改善し、ジオサイエンスや環境アプリケーションをサポートするために、過度に大規模で正確な3dメッシュモデルを作成するための新たなポテンシャルがもたらされることを示しました。
関連論文リスト
- MVDiff: Scalable and Flexible Multi-View Diffusion for 3D Object Reconstruction from Single-View [0.0]
本稿では,単一画像から一貫した多視点画像を生成するための一般的なフレームワークを提案する。
提案モデルは,PSNR,SSIM,LPIPSなどの評価指標において,ベースライン法を超える3Dメッシュを生成することができる。
論文 参考訳(メタデータ) (2024-05-06T22:55:53Z) - FDGaussian: Fast Gaussian Splatting from Single Image via Geometric-aware Diffusion Model [81.03553265684184]
FDGaussianは、シングルイメージ3D再構成のための新しい2段階フレームワークである。
最近の手法では、通常、事前訓練された2次元拡散モデルを用いて、入力画像から可塑性な新しいビューを生成する。
我々は,FDGaussianが様々な視点で高一貫性の画像を生成し,高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Structured 3D Features for Reconstructing Controllable Avatars [43.36074729431982]
パラメトリックな統計的メッシュ表面からサンプリングされた高密度な3次元点に画素整列画像特徴をプールする,新しい暗黙の3次元表現に基づくモデルであるStructured 3D Featuresを紹介する。
本研究では,S3Fモデルがモノクロ3D再構成やアルベド,シェーディング推定など,これまでの課題を超越していることを示す。
論文 参考訳(メタデータ) (2022-12-13T18:57:33Z) - 3D-LDM: Neural Implicit 3D Shape Generation with Latent Diffusion Models [8.583859530633417]
自動復号器の潜時空間で動作する3次元形状のニューラル暗黙表現のための拡散モデルを提案する。
これにより、多種多様な高品質な3D表面を生成できます。
論文 参考訳(メタデータ) (2022-12-01T20:00:00Z) - Towards Hard-pose Virtual Try-on via 3D-aware Global Correspondence
Learning [70.75369367311897]
3D対応のグローバルな対応は、グローバルな意味的相関、局所的な変形、および3D人体の幾何学的先行を共同でエンコードする信頼性のあるフローである。
対向ジェネレータは、3D認識フローによって歪んだ衣服と、対象者の画像とを入力として、フォトリアリスティックな試着結果を合成する。
論文 参考訳(メタデータ) (2022-11-25T12:16:21Z) - Next3D: Generative Neural Texture Rasterization for 3D-Aware Head
Avatars [36.4402388864691]
3D-Aware Generative Adversarial Network (GANs) は, 単一視点2D画像のコレクションのみを用いて, 高忠実かつ多視点の顔画像を合成する。
最近の研究は、3D Morphable Face Model (3DMM) を用いて、生成放射場における変形を明示的または暗黙的に記述している。
本研究では,非構造化2次元画像から生成的,高品質,かつ3D一貫性のある顔アバターの教師なし学習のための新しい3D GANフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-21T06:40:46Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Weakly Supervised Volumetric Image Segmentation with Deformed Templates [80.04326168716493]
対象対象物の表面にスパースな3次元点のセットのみを提供する必要があるという意味で、真に弱い教師付きアプローチを提案する。
監督コストの削減により、3Dの弱スーパービジョンに対する従来のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-07T22:09:34Z) - SMPLpix: Neural Avatars from 3D Human Models [56.85115800735619]
従来のレンダリングと画素空間で動作する最新の生成ネットワークのギャップを埋める。
我々は、スパースな3Dメッシュ頂点をフォトリアリスティックな画像に変換するネットワークを訓練する。
我々は,フォトリアリズムのレベルとレンダリング効率の両面で,従来の微分可能よりも優位性を示す。
論文 参考訳(メタデータ) (2020-08-16T10:22:00Z) - Photometric Multi-View Mesh Refinement for High-Resolution Satellite
Images [24.245977127434212]
最先端の復元手法は一般的に2.5次元の標高データを生成する。
マルチビュー衛星画像から全3次元表面メッシュを復元する手法を提案する。
論文 参考訳(メタデータ) (2020-05-10T20:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。