論文の概要: ImpliCity: City Modeling from Satellite Images with Deep Implicit
Occupancy Fields
- arxiv url: http://arxiv.org/abs/2201.09968v1
- Date: Mon, 24 Jan 2022 21:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 09:54:22.499321
- Title: ImpliCity: City Modeling from Satellite Images with Deep Implicit
Occupancy Fields
- Title(参考訳): ImpliCity: 深部活動場を持つ衛星画像からの都市モデリング
- Authors: Corinne Stucker, Bingxin Ke, Yuanwen Yue, Shengyu Huang, Iro Armeni,
Konrad Schindler
- Abstract要約: ImpliCityは、3Dシーンを暗黙的かつ連続的な占有領域として表現し、ポイント・クラウドとステレオ・フォトの組込みによって駆動される。
画像解像度0.5$,$mのImpliCityは、$approx,$0.7$,$mの平均的な高さ誤差に達し、競合するメソッドを上回っている。
- 参考スコア(独自算出の注目度): 20.00737387884824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-resolution optical satellite sensors, in combination with dense stereo
algorithms, have made it possible to reconstruct 3D city models from space.
However, the resulting models are, in practice, rather noisy, and they tend to
miss small geometric features that are clearly visible in the images. We argue
that one reason for the limited DSM quality may be a too early, heuristic
reduction of the triangulated 3D point cloud to an explicit height field or
surface mesh. To make full use of the point cloud and the underlying images, we
introduce ImpliCity, a neural representation of the 3D scene as an implicit,
continuous occupancy field, driven by learned embeddings of the point cloud and
a stereo pair of ortho-photos. We show that this representation enables the
extraction of high-quality DSMs: with image resolution 0.5$\,$m, ImpliCity
reaches a median height error of $\approx\,$0.7$\,$m and outperforms competing
methods, especially w.r.t. building reconstruction, featuring intricate roof
details, smooth surfaces, and straight, regular outlines.
- Abstract(参考訳): 高分解能光衛星センサと高密度ステレオアルゴリズムを組み合わせることで、宇宙から3d都市モデルを再構築できるようになった。
しかし、結果として得られるモデルは実際にはかなり騒がしく、画像にはっきりと見える小さな幾何学的特徴を見逃してしまう傾向がある。
限られたDSM品質の理由の1つは、三角形の3D点雲を明示的な高さ場や表面メッシュに還元するには早すぎる、と我々は主張する。
ポイントクラウドと基礎となるイメージをフルに利用するために、ポイントクラウドの学習された埋め込みとステレオ写真のステレオペアによって駆動される、暗黙的かつ連続的な占有領域としての3dシーンのニューラル表現である暗黙性を導入する。
画像解像度 0.5$\,$m で、ImpliCity は$\approx\,$0.7$\,$m の中央値の高さ誤差に達し、特に複雑な屋根の細部、滑らかな表面、直線的な規則的な輪郭を特徴とする、競合する手法、特にw.r.t.の建物復元よりも優れる。
関連論文リスト
- Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with
Diffusion [82.97474530980999]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - HQ3DAvatar: High Quality Controllable 3D Head Avatar [65.70885416855782]
本稿では,高フォトリアリスティックなデジタルヘッドアバターを構築するための新しいアプローチを提案する。
本手法はニューラルネットワークによってパラメータ化された暗黙関数を用いて標準空間を学習する。
テスト時,本手法は単眼のRGBビデオによって駆動される。
論文 参考訳(メタデータ) (2023-03-25T13:56:33Z) - sat2pc: Estimating Point Cloud of Building Roofs from 2D Satellite
Images [1.8884278918443564]
2次元衛星画像から建物屋根の点を予測するディープラーニングアーキテクチャである sat2pc を提案する。
以上の結果から,SAT2pcは既存のベースラインを少なくとも18.6%上回る性能を示した。
論文 参考訳(メタデータ) (2022-05-25T03:24:40Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - Topologically Consistent Multi-View Face Inference Using Volumetric
Sampling [25.001398662643986]
ToFuは、幾何推論フレームワークで、アイデンティティと式をまたいだトポロジ的に一貫したメッシュを生成することができる。
新たなプログレッシブメッシュ生成ネットワークは、顔のトポロジ的構造を特徴量に埋め込む。
これらの高品質な資産は、アバターの作成、アニメーション、物理的にベースとしたスキンレンダリングのためのプロダクションスタジオで容易に利用することができる。
論文 参考訳(メタデータ) (2021-10-06T17:55:08Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - ResDepth: A Deep Prior For 3D Reconstruction From High-resolution
Satellite Images [28.975837416508142]
ResDepthは畳み込みニューラルネットワークで、例データからそのような表現幾何学を学習する。
一連の実験において,提案手法はステレオDSMを定量的かつ定性的に一貫的に改善することがわかった。
ネットワーク重みに符号化された先行符号化は、都市デザインの意義ある幾何学的特徴を捉えていることを示す。
論文 参考訳(メタデータ) (2021-06-15T12:51:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。