論文の概要: Mesh Conflation of Oblique Photogrammetric Models using Virtual Cameras
and Truncated Signed Distance Field
- arxiv url: http://arxiv.org/abs/2308.12139v1
- Date: Wed, 23 Aug 2023 13:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 13:55:49.379120
- Title: Mesh Conflation of Oblique Photogrammetric Models using Virtual Cameras
and Truncated Signed Distance Field
- Title(参考訳): 仮想カメラとTrncated Signed Distance Fieldを用いた斜めフォトグラムモデルのメッシュ相関
- Authors: Shuang Song, Rongjun Qin
- Abstract要約: 本稿では,複数のフル3次元斜めフォトグラムモデルを単一かつシームレスなメッシュに融合する新しい手法を提案する。
ドローンをベースとした3Dメッシュでは,従来のモデルの融合手法により,アプローチが大幅に改善されることが示されている。
- 参考スコア(独自算出の注目度): 9.302957830475375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conflating/stitching 2.5D raster digital surface models (DSM) into a large
one has been a running practice in geoscience applications, however, conflating
full-3D mesh models, such as those from oblique photogrammetry, is extremely
challenging. In this letter, we propose a novel approach to address this
challenge by conflating multiple full-3D oblique photogrammetric models into a
single, and seamless mesh for high-resolution site modeling. Given two or more
individually collected and created photogrammetric meshes, we first propose to
create a virtual camera field (with a panoramic field of view) to incubate
virtual spaces represented by Truncated Signed Distance Field (TSDF), an
implicit volumetric field friendly for linear 3D fusion; then we adaptively
leverage the truncated bound of meshes in TSDF to conflate them into a single
and accurate full 3D site model. With drone-based 3D meshes, we show that our
approach significantly improves upon traditional methods for model conflations,
to drive new potentials to create excessively large and accurate full 3D mesh
models in support of geoscience and environmental applications.
- Abstract(参考訳): 2.5dラスターのデジタルサーフェスモデル(dsm)を大規模に融合・固定することは、地球科学の応用における実例であるが、斜めフォトグラメトリーのようなフル3dメッシュモデルを統合することは極めて困難である。
本稿では,複数のフル3次元斜めフォトグラムモデルを高分解能サイトモデリングのための単一かつシームレスなメッシュに融合することで,この問題に対処する新しい手法を提案する。
2つ以上の個別に収集・作成されたフォトグラムメッシュについて,まず,線形3次元融合に好適な暗黙的な体積場であるトランジット・サイン付き距離場(tsdf)で表現される仮想空間をインキュベートする仮想カメラ場(パノラマ視野)を作成することを提案する。
ドローンベースの3dメッシュによって、従来のモデルコンフレーションの方法を大幅に改善し、ジオサイエンスや環境アプリケーションをサポートするために、過度に大規模で正確な3dメッシュモデルを作成するための新たなポテンシャルがもたらされることを示しました。
関連論文リスト
- GaussianAnything: Interactive Point Cloud Latent Diffusion for 3D Generation [75.39457097832113]
本稿では,インタラクティブなポイントクラウド構造ラテント空間を備えたスケーラブルで高品質な3D生成を実現する,新しい3D生成フレームワークを提案する。
本フレームワークでは,複数ビューのRGB-D(epth)-N(ormal)レンダリングを入力として使用する変分オートエンコーダを,3次元形状情報を保存する独自のラテント空間設計を用いて構成する。
提案手法であるGaussianAnythingは,複数モード条件付き3D生成をサポートし,ポイントクラウド,キャプション,シングル/マルチビュー画像入力を可能にする。
論文 参考訳(メタデータ) (2024-11-12T18:59:32Z) - Enhancing Single Image to 3D Generation using Gaussian Splatting and Hybrid Diffusion Priors [17.544733016978928]
単一の画像から3Dオブジェクトを生成するには、野生で撮影された未ポーズのRGB画像から、目に見えない景色の完全な3D形状とテクスチャを推定する必要がある。
3次元オブジェクト生成の最近の進歩は、物体の形状とテクスチャを再構築する技術を導入している。
本稿では, この限界に対応するために, 2次元拡散モデルと3次元拡散モデルとのギャップを埋めることを提案する。
論文 参考訳(メタデータ) (2024-10-12T10:14:11Z) - DreamMesh4D: Video-to-4D Generation with Sparse-Controlled Gaussian-Mesh Hybrid Representation [10.250715657201363]
本稿では,メッシュ表現と幾何スキン技術を組み合わせた新しいフレームワークDreamMesh4Dを紹介し,モノクロビデオから高品質な4Dオブジェクトを生成する。
我々の手法は現代のグラフィックパイプラインと互換性があり、3Dゲームや映画産業におけるその可能性を示している。
論文 参考訳(メタデータ) (2024-10-09T10:41:08Z) - DreamVTON: Customizing 3D Virtual Try-on with Personalized Diffusion Models [56.55549019625362]
画像ベースの3Dバーチャルトライオン(VTON)は、人や衣服の画像に基づいて3D人間を彫刻することを目的としている。
近年のテキスト・ツー・3D法は高忠実度3Dヒューマンジェネレーションにおいて顕著な改善を実現している。
我々は,3次元人間の形状とテクスチャを個別に最適化するために,textbfDreamVTONという新しい3次元人体試行モデルを提案する。
論文 参考訳(メタデータ) (2024-07-23T14:25:28Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - LAM3D: Large Image-Point-Cloud Alignment Model for 3D Reconstruction from Single Image [64.94932577552458]
大規模再構成モデルは、単一または複数入力画像から自動3Dコンテンツ生成の領域において大きな進歩を遂げている。
彼らの成功にもかかわらず、これらのモデルはしばしば幾何学的不正確な3Dメッシュを生成し、画像データからのみ3D形状を推論する固有の課題から生まれた。
生成した3Dメッシュの忠実度を高めるために3Dポイントクラウドデータを利用する新しいフレームワークであるLarge Image and Point Cloud Alignment Model (LAM3D)を導入する。
論文 参考訳(メタデータ) (2024-05-24T15:09:12Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Next3D: Generative Neural Texture Rasterization for 3D-Aware Head
Avatars [36.4402388864691]
3D-Aware Generative Adversarial Network (GANs) は, 単一視点2D画像のコレクションのみを用いて, 高忠実かつ多視点の顔画像を合成する。
最近の研究は、3D Morphable Face Model (3DMM) を用いて、生成放射場における変形を明示的または暗黙的に記述している。
本研究では,非構造化2次元画像から生成的,高品質,かつ3D一貫性のある顔アバターの教師なし学習のための新しい3D GANフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-21T06:40:46Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。