論文の概要: ImpliCity: City Modeling from Satellite Images with Deep Implicit
Occupancy Fields
- arxiv url: http://arxiv.org/abs/2201.09968v1
- Date: Mon, 24 Jan 2022 21:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 09:54:22.499321
- Title: ImpliCity: City Modeling from Satellite Images with Deep Implicit
Occupancy Fields
- Title(参考訳): ImpliCity: 深部活動場を持つ衛星画像からの都市モデリング
- Authors: Corinne Stucker, Bingxin Ke, Yuanwen Yue, Shengyu Huang, Iro Armeni,
Konrad Schindler
- Abstract要約: ImpliCityは、3Dシーンを暗黙的かつ連続的な占有領域として表現し、ポイント・クラウドとステレオ・フォトの組込みによって駆動される。
画像解像度0.5$,$mのImpliCityは、$approx,$0.7$,$mの平均的な高さ誤差に達し、競合するメソッドを上回っている。
- 参考スコア(独自算出の注目度): 20.00737387884824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-resolution optical satellite sensors, in combination with dense stereo
algorithms, have made it possible to reconstruct 3D city models from space.
However, the resulting models are, in practice, rather noisy, and they tend to
miss small geometric features that are clearly visible in the images. We argue
that one reason for the limited DSM quality may be a too early, heuristic
reduction of the triangulated 3D point cloud to an explicit height field or
surface mesh. To make full use of the point cloud and the underlying images, we
introduce ImpliCity, a neural representation of the 3D scene as an implicit,
continuous occupancy field, driven by learned embeddings of the point cloud and
a stereo pair of ortho-photos. We show that this representation enables the
extraction of high-quality DSMs: with image resolution 0.5$\,$m, ImpliCity
reaches a median height error of $\approx\,$0.7$\,$m and outperforms competing
methods, especially w.r.t. building reconstruction, featuring intricate roof
details, smooth surfaces, and straight, regular outlines.
- Abstract(参考訳): 高分解能光衛星センサと高密度ステレオアルゴリズムを組み合わせることで、宇宙から3d都市モデルを再構築できるようになった。
しかし、結果として得られるモデルは実際にはかなり騒がしく、画像にはっきりと見える小さな幾何学的特徴を見逃してしまう傾向がある。
限られたDSM品質の理由の1つは、三角形の3D点雲を明示的な高さ場や表面メッシュに還元するには早すぎる、と我々は主張する。
ポイントクラウドと基礎となるイメージをフルに利用するために、ポイントクラウドの学習された埋め込みとステレオ写真のステレオペアによって駆動される、暗黙的かつ連続的な占有領域としての3dシーンのニューラル表現である暗黙性を導入する。
画像解像度 0.5$\,$m で、ImpliCity は$\approx\,$0.7$\,$m の中央値の高さ誤差に達し、特に複雑な屋根の細部、滑らかな表面、直線的な規則的な輪郭を特徴とする、競合する手法、特にw.r.t.の建物復元よりも優れる。
関連論文リスト
- DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - LAM3D: Large Image-Point-Cloud Alignment Model for 3D Reconstruction from Single Image [64.94932577552458]
大規模再構成モデルは、単一または複数入力画像から自動3Dコンテンツ生成の領域において大きな進歩を遂げている。
彼らの成功にもかかわらず、これらのモデルはしばしば幾何学的不正確な3Dメッシュを生成し、画像データからのみ3D形状を推論する固有の課題から生まれた。
生成した3Dメッシュの忠実度を高めるために3Dポイントクラウドデータを利用する新しいフレームワークであるLarge Image and Point Cloud Alignment Model (LAM3D)を導入する。
論文 参考訳(メタデータ) (2024-05-24T15:09:12Z) - Enhanced 3D Urban Scene Reconstruction and Point Cloud Densification using Gaussian Splatting and Google Earth Imagery [19.67372661944804]
ウォータールー大学を中心としたウォータールー地域の3次元ガウス散乱モデルを構築した。
我々は,従来の3次元視線合成結果よりもはるかに高い視線合成結果を得ることができる。
論文 参考訳(メタデータ) (2024-05-17T18:00:07Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - sat2pc: Estimating Point Cloud of Building Roofs from 2D Satellite
Images [1.8884278918443564]
2次元衛星画像から建物屋根の点を予測するディープラーニングアーキテクチャである sat2pc を提案する。
以上の結果から,SAT2pcは既存のベースラインを少なくとも18.6%上回る性能を示した。
論文 参考訳(メタデータ) (2022-05-25T03:24:40Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - ResDepth: A Deep Prior For 3D Reconstruction From High-resolution
Satellite Images [28.975837416508142]
ResDepthは畳み込みニューラルネットワークで、例データからそのような表現幾何学を学習する。
一連の実験において,提案手法はステレオDSMを定量的かつ定性的に一貫的に改善することがわかった。
ネットワーク重みに符号化された先行符号化は、都市デザインの意義ある幾何学的特徴を捉えていることを示す。
論文 参考訳(メタデータ) (2021-06-15T12:51:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。