論文の概要: Scalable Scene Modeling from Perspective Imaging: Physics-based Appearance and Geometry Inference
- arxiv url: http://arxiv.org/abs/2404.01248v1
- Date: Mon, 1 Apr 2024 17:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 21:36:17.732780
- Title: Scalable Scene Modeling from Perspective Imaging: Physics-based Appearance and Geometry Inference
- Title(参考訳): パースペクティブイメージングによるスケーラブルなシーンモデリング:物理に基づく外観と幾何学的推論
- Authors: Shuang Song,
- Abstract要約: 論文は3Dシーンモデリングをその最先端に進める貢献のごく一部を提示する。
一般的なディープラーニング手法とは対照的に、この論文は第一原理に従うアルゴリズムの開発を目的としている。
- 参考スコア(独自算出の注目度): 3.2229099973277076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D scene modeling techniques serve as the bedrocks in the geospatial engineering and computer science, which drives many applications ranging from automated driving, terrain mapping, navigation, virtual, augmented, mixed, and extended reality (for gaming and movie industry etc.). This dissertation presents a fraction of contributions that advances 3D scene modeling to its state of the art, in the aspects of both appearance and geometry modeling. In contrast to the prevailing deep learning methods, as a core contribution, this thesis aims to develop algorithms that follow first principles, where sophisticated physic-based models are introduced alongside with simpler learning and inference tasks. The outcomes of these algorithms yield processes that can consume much larger volume of data for highly accurate reconstructing 3D scenes at a scale without losing methodological generality, which are not possible by contemporary complex-model based deep learning methods. Specifically, the dissertation introduces three novel methodologies that address the challenges of inferring appearance and geometry through physics-based modeling. Overall, the research encapsulated in this dissertation marks a series of methodological triumphs in the processing of complex datasets. By navigating the confluence of deep learning, computational geometry, and photogrammetry, this work lays down a robust framework for future exploration and practical application in the rapidly evolving field of 3D scene reconstruction. The outcomes of these studies are evidenced through rigorous experiments and comparisons with existing state-of-the-art methods, demonstrating the efficacy and scalability of the proposed approaches.
- Abstract(参考訳): 3Dシーンモデリング技術は、地理空間工学とコンピュータ科学の基盤として機能し、自動走行、地形マッピング、ナビゲーション、仮想、拡張、混合、拡張現実(ゲームや映画産業など)など、多くのアプリケーションを駆動する。
この論文は、外観と幾何学的モデリングの両面において、3Dシーンモデリングを最先端に進める貢献のごく一部を提示する。
一般的なディープラーニング手法とは対照的に、この論文は、より単純な学習と推論タスクとともに高度な物理モデルを導入する、第一原理に従うアルゴリズムの開発を目的としている。
これらのアルゴリズムの結果は、現代の複雑なモデルに基づくディープラーニング手法では不可能な方法論的一般性を失うことなく、高精度に3Dシーンを再現するために、はるかに多くのデータを消費するプロセスを生み出す。
具体的には、物理学に基づくモデリングを通して外観と幾何学を推論する3つの新しい手法を導入する。
全体として、この論文にカプセル化された研究は、複雑なデータセットの処理における一連の方法論的な勝利を示している。
深層学習, 計算幾何学, フォトグラムメトリーの合流点をナビゲートすることにより, この研究は, 急速に発展する3次元シーン再構築の分野において, 将来の探索と実践のための堅牢な枠組みを構築した。
これらの研究の結果は、厳密な実験と既存の最先端手法との比較を通じて実証され、提案手法の有効性と拡張性を示している。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Gaussian Splatting: 3D Reconstruction and Novel View Synthesis, a Review [0.08823202672546056]
本稿では,新鮮で見えない視点の創出を含む3次元再構成技術について概説する。
ガウススティング法における最近の展開の概要として,入力型,モデル構造,出力表現,トレーニング戦略について概説する。
論文 参考訳(メタデータ) (2024-05-06T12:32:38Z) - PhyRecon: Physically Plausible Neural Scene Reconstruction [81.73129450090684]
我々は、微分可能レンダリングと微分可能物理シミュレーションの両方を活用する最初のアプローチであるPhyReconを導入し、暗黙的な表面表現を学習する。
PhyReconは、ニューラルな暗黙の表現に基づいて構築された、新しい微分可能な粒子ベースの物理シミュレータを備えている。
また,物理シミュレータの安定性も向上し,全データセットに対して少なくとも40%の改善が得られた。
論文 参考訳(メタデータ) (2024-04-25T15:06:58Z) - PGAHum: Prior-Guided Geometry and Appearance Learning for High-Fidelity Animatable Human Reconstruction [9.231326291897817]
我々はPGAHumを紹介した。PGAHumは、高忠実でアニマタブルな人体再構成のための、事前ガイダンス付き幾何学および外観学習フレームワークである。
我々はPGAHumの3つの主要モジュールにおける3次元人体前駆体を徹底的に利用し、複雑な細部と見えないポーズのフォトリアリスティックなビュー合成による高品質な幾何再構成を実現する。
論文 参考訳(メタデータ) (2024-04-22T04:22:30Z) - Embedded Shape Matching in Photogrammetry Data for Modeling Making
Knowledge [0.0]
投影法により得られた2次元サンプルを用いて3次元モデルにおけるパターン認識の難しさを克服する。
このアプリケーションは、ゼウグマモザイクのいくつかの例とセルジューク時代のレンガ壁の3次元デジタルモデリングに基づく。
論文 参考訳(メタデータ) (2023-12-20T23:52:53Z) - Human as Points: Explicit Point-based 3D Human Reconstruction from
Single-view RGB Images [78.56114271538061]
我々はHaPと呼ばれる明示的なポイントベース人間再構築フレームワークを導入する。
提案手法は,3次元幾何学空間における完全明示的な点雲推定,操作,生成,洗練が特徴である。
我々の結果は、完全に明示的で幾何学中心のアルゴリズム設計へのパラダイムのロールバックを示すかもしれない。
論文 参考訳(メタデータ) (2023-11-06T05:52:29Z) - Graphical Object-Centric Actor-Critic [55.2480439325792]
本稿では,アクター批判とモデルに基づくアプローチを組み合わせたオブジェクト中心強化学習アルゴリズムを提案する。
変換器エンコーダを用いてオブジェクト表現とグラフニューラルネットワークを抽出し、環境のダイナミクスを近似する。
本アルゴリズムは,現状のモデルフリーアクター批判アルゴリズムよりも複雑な3次元ロボット環境と構成構造をもつ2次元環境において,より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-26T06:05:12Z) - 3D objects and scenes classification, recognition, segmentation, and
reconstruction using 3D point cloud data: A review [5.85206759397617]
3次元(3D)点雲解析は、現実的な画像やマシンビジョンにおいて魅力的な対象の1つとなっている。
最近、ディープラーニングモデルのような様々な技術を用いて、新しい戦略の開発に多大な努力が注がれている。
オブジェクトやシーンの検出,認識,セグメンテーション,再構築など,3Dポイントで行うさまざまなタスクについて検討した。
論文 参考訳(メタデータ) (2023-06-09T15:45:23Z) - Geometric Processing for Image-based 3D Object Modeling [2.6397379133308214]
本稿では,幾何処理の3つの主要構成要素の最先端手法について紹介する:(1)ジオレファレンス; 2)画像密度マッチング3)テクスチャマッピング。
3Dオブジェクト再構成ワークフローにおける画像の大部分が自動化された幾何処理は、現実的な3Dモデリングの重要な部分となっている。
論文 参考訳(メタデータ) (2021-06-27T18:33:30Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z) - Neural Topological SLAM for Visual Navigation [112.73876869904]
意味論を生かし、近似幾何学的推論を行う空間のトポロジ的表現を設計する。
本稿では,ノイズのあるアクティベーションの下でそのような表現を構築し,維持し,使用することができる教師付き学習ベースアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2020-05-25T17:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。