論文の概要: Scalable Scene Modeling from Perspective Imaging: Physics-based Appearance and Geometry Inference
- arxiv url: http://arxiv.org/abs/2404.01248v1
- Date: Mon, 1 Apr 2024 17:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 21:36:17.732780
- Title: Scalable Scene Modeling from Perspective Imaging: Physics-based Appearance and Geometry Inference
- Title(参考訳): パースペクティブイメージングによるスケーラブルなシーンモデリング:物理に基づく外観と幾何学的推論
- Authors: Shuang Song,
- Abstract要約: 論文は3Dシーンモデリングをその最先端に進める貢献のごく一部を提示する。
一般的なディープラーニング手法とは対照的に、この論文は第一原理に従うアルゴリズムの開発を目的としている。
- 参考スコア(独自算出の注目度): 3.2229099973277076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D scene modeling techniques serve as the bedrocks in the geospatial engineering and computer science, which drives many applications ranging from automated driving, terrain mapping, navigation, virtual, augmented, mixed, and extended reality (for gaming and movie industry etc.). This dissertation presents a fraction of contributions that advances 3D scene modeling to its state of the art, in the aspects of both appearance and geometry modeling. In contrast to the prevailing deep learning methods, as a core contribution, this thesis aims to develop algorithms that follow first principles, where sophisticated physic-based models are introduced alongside with simpler learning and inference tasks. The outcomes of these algorithms yield processes that can consume much larger volume of data for highly accurate reconstructing 3D scenes at a scale without losing methodological generality, which are not possible by contemporary complex-model based deep learning methods. Specifically, the dissertation introduces three novel methodologies that address the challenges of inferring appearance and geometry through physics-based modeling. Overall, the research encapsulated in this dissertation marks a series of methodological triumphs in the processing of complex datasets. By navigating the confluence of deep learning, computational geometry, and photogrammetry, this work lays down a robust framework for future exploration and practical application in the rapidly evolving field of 3D scene reconstruction. The outcomes of these studies are evidenced through rigorous experiments and comparisons with existing state-of-the-art methods, demonstrating the efficacy and scalability of the proposed approaches.
- Abstract(参考訳): 3Dシーンモデリング技術は、地理空間工学とコンピュータ科学の基盤として機能し、自動走行、地形マッピング、ナビゲーション、仮想、拡張、混合、拡張現実(ゲームや映画産業など)など、多くのアプリケーションを駆動する。
この論文は、外観と幾何学的モデリングの両面において、3Dシーンモデリングを最先端に進める貢献のごく一部を提示する。
一般的なディープラーニング手法とは対照的に、この論文は、より単純な学習と推論タスクとともに高度な物理モデルを導入する、第一原理に従うアルゴリズムの開発を目的としている。
これらのアルゴリズムの結果は、現代の複雑なモデルに基づくディープラーニング手法では不可能な方法論的一般性を失うことなく、高精度に3Dシーンを再現するために、はるかに多くのデータを消費するプロセスを生み出す。
具体的には、物理学に基づくモデリングを通して外観と幾何学を推論する3つの新しい手法を導入する。
全体として、この論文にカプセル化された研究は、複雑なデータセットの処理における一連の方法論的な勝利を示している。
深層学習, 計算幾何学, フォトグラムメトリーの合流点をナビゲートすることにより, この研究は, 急速に発展する3次元シーン再構築の分野において, 将来の探索と実践のための堅牢な枠組みを構築した。
これらの研究の結果は、厳密な実験と既存の最先端手法との比較を通じて実証され、提案手法の有効性と拡張性を示している。
関連論文リスト
- Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - DreamPolish: Domain Score Distillation With Progressive Geometry Generation [66.94803919328815]
本稿では,高精細な幾何学と高品質なテクスチャの創出に優れたテキスト・ツー・3D生成モデルであるDreamPolishを紹介する。
幾何構成フェーズでは, 合成過程の安定性を高めるために, 複数のニューラル表現を利用する。
テクスチャ生成フェーズでは、そのような領域に向けて神経表現を導くために、新しいスコア蒸留、すなわちドメインスコア蒸留(DSD)を導入する。
論文 参考訳(メタデータ) (2024-11-03T15:15:01Z) - Learning-based Multi-View Stereo: A Survey [55.3096230732874]
MVS(Multi-View Stereo)アルゴリズムは、複雑な環境における正確な再構築を可能にする包括的な3D表現を合成する。
ディープラーニングの成功により、多くの学習ベースのMVS手法が提案され、従来の手法に対して優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-27T17:53:18Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Gaussian Splatting: 3D Reconstruction and Novel View Synthesis, a Review [0.08823202672546056]
本稿では,新鮮で見えない視点の創出を含む3次元再構成技術について概説する。
ガウススティング法における最近の展開の概要として,入力型,モデル構造,出力表現,トレーニング戦略について概説する。
論文 参考訳(メタデータ) (2024-05-06T12:32:38Z) - PGAHum: Prior-Guided Geometry and Appearance Learning for High-Fidelity Animatable Human Reconstruction [9.231326291897817]
我々はPGAHumを紹介した。PGAHumは、高忠実でアニマタブルな人体再構成のための、事前ガイダンス付き幾何学および外観学習フレームワークである。
我々はPGAHumの3つの主要モジュールにおける3次元人体前駆体を徹底的に利用し、複雑な細部と見えないポーズのフォトリアリスティックなビュー合成による高品質な幾何再構成を実現する。
論文 参考訳(メタデータ) (2024-04-22T04:22:30Z) - Embedded Shape Matching in Photogrammetry Data for Modeling Making
Knowledge [0.0]
投影法により得られた2次元サンプルを用いて3次元モデルにおけるパターン認識の難しさを克服する。
このアプリケーションは、ゼウグマモザイクのいくつかの例とセルジューク時代のレンガ壁の3次元デジタルモデリングに基づく。
論文 参考訳(メタデータ) (2023-12-20T23:52:53Z) - Human as Points: Explicit Point-based 3D Human Reconstruction from
Single-view RGB Images [78.56114271538061]
我々はHaPと呼ばれる明示的なポイントベース人間再構築フレームワークを導入する。
提案手法は,3次元幾何学空間における完全明示的な点雲推定,操作,生成,洗練が特徴である。
我々の結果は、完全に明示的で幾何学中心のアルゴリズム設計へのパラダイムのロールバックを示すかもしれない。
論文 参考訳(メタデータ) (2023-11-06T05:52:29Z) - 3D objects and scenes classification, recognition, segmentation, and
reconstruction using 3D point cloud data: A review [5.85206759397617]
3次元(3D)点雲解析は、現実的な画像やマシンビジョンにおいて魅力的な対象の1つとなっている。
最近、ディープラーニングモデルのような様々な技術を用いて、新しい戦略の開発に多大な努力が注がれている。
オブジェクトやシーンの検出,認識,セグメンテーション,再構築など,3Dポイントで行うさまざまなタスクについて検討した。
論文 参考訳(メタデータ) (2023-06-09T15:45:23Z) - Geometric Processing for Image-based 3D Object Modeling [2.6397379133308214]
本稿では,幾何処理の3つの主要構成要素の最先端手法について紹介する:(1)ジオレファレンス; 2)画像密度マッチング3)テクスチャマッピング。
3Dオブジェクト再構成ワークフローにおける画像の大部分が自動化された幾何処理は、現実的な3Dモデリングの重要な部分となっている。
論文 参考訳(メタデータ) (2021-06-27T18:33:30Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。