論文の概要: AIM2PC: Aerial Image to 3D Building Point Cloud Reconstruction
- arxiv url: http://arxiv.org/abs/2503.18527v1
- Date: Mon, 24 Mar 2025 10:34:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:35:52.980817
- Title: AIM2PC: Aerial Image to 3D Building Point Cloud Reconstruction
- Title(参考訳): AIM2PC:3Dビルディングポイントクラウド再構築のための空中画像
- Authors: Soulaimene Turki, Daniel Panangian, Houda Chaabouni-Chouayakh, Ksenia Bittner,
- Abstract要約: 最近の手法は主に空中画像からの屋上に焦点を当てており、しばしば重要な幾何学的詳細を見下ろしている。
建物全体のための完全な3Dポイントクラウドを含むデータセットの欠如と、航空画像の信頼性の高いカメラポーズ情報を取得するという課題がある。
本稿では,全3次元点群決定カメラのポーズを含む,我々の生成したデータセットを利用する新しい手法であるAIM2PCを提案する。
- 参考スコア(独自算出の注目度): 2.9998889086656586
- License:
- Abstract: Three-dimensional urban reconstruction of buildings from single-view images has attracted significant attention over the past two decades. However, recent methods primarily focus on rooftops from aerial images, often overlooking essential geometrical details. Additionally, there is a notable lack of datasets containing complete 3D point clouds for entire buildings, along with challenges in obtaining reliable camera pose information for aerial images. This paper addresses these challenges by presenting a novel methodology, AIM2PC , which utilizes our generated dataset that includes complete 3D point clouds and determined camera poses. Our approach takes features from a single aerial image as input and concatenates them with essential additional conditions, such as binary masks and Sobel edge maps, to enable more edge-aware reconstruction. By incorporating a point cloud diffusion model based on Centered denoising Diffusion Probabilistic Models (CDPM), we project these concatenated features onto the partially denoised point cloud using our camera poses at each diffusion step. The proposed method is able to reconstruct the complete 3D building point cloud, including wall information and demonstrates superior performance compared to existing baseline techniques. To allow further comparisons with our methodology the dataset has been made available at https://github.com/Soulaimene/AIM2PCDataset
- Abstract(参考訳): 過去20年間に1枚の画像から建物を3次元に復元したことが注目されている。
しかし、最近の手法は主に空中画像からの屋上に焦点を当てており、しばしば重要な幾何学的詳細を見落としている。
さらに、建物全体に完全な3Dポイント雲を含むデータセットが不足しており、航空画像の信頼性の高いカメラポーズ情報を取得するという課題もある。
本稿では, 完全3次元点雲と決定カメラのポーズを含む, 生成したデータセットを利用する新しい手法であるAIM2PCを提案することにより, これらの課題に対処する。
我々のアプローチは、入力として単一の空中画像から特徴を取り、二元マスクやソベルエッジマップのような重要な追加条件でそれらを結合することで、よりエッジ対応の再構築を可能にする。
本研究では,CDPM (Central Denoising Diffusion Probabilistic Models) に基づく点群拡散モデルを導入することにより,各拡散ステップにおけるカメラのポーズを用いて,これらの結合した特徴を部分分解点群に投影する。
提案手法は,壁情報を含む全3次元ビルディングポイントクラウドを再構築し,既存のベースライン技術と比較して優れた性能を示す。
我々の方法論とさらなる比較を可能にするため、データセットはhttps://github.com/Soulaimene/AIM2PCDatasetで利用可能になった。
関連論文リスト
- LAM3D: Large Image-Point-Cloud Alignment Model for 3D Reconstruction from Single Image [64.94932577552458]
大規模再構成モデルは、単一または複数入力画像から自動3Dコンテンツ生成の領域において大きな進歩を遂げている。
彼らの成功にもかかわらず、これらのモデルはしばしば幾何学的不正確な3Dメッシュを生成し、画像データからのみ3D形状を推論する固有の課題から生まれた。
生成した3Dメッシュの忠実度を高めるために3Dポイントクラウドデータを利用する新しいフレームワークであるLarge Image and Point Cloud Alignment Model (LAM3D)を導入する。
論文 参考訳(メタデータ) (2024-05-24T15:09:12Z) - APC2Mesh: Bridging the gap from occluded building façades to full 3D models [5.113739955215433]
本稿では,ポイントコンプリートを3次元再構成パイプラインに統合するAPC2Meshを提案する。
具体的には、3次元メッシュ再構成のための線形化スキップアテンションに基づく変形ネットワークへの入力として、隠蔽された点から生成された完全点を利用する。
論文 参考訳(メタデータ) (2024-04-03T01:29:30Z) - Few-shot point cloud reconstruction and denoising via learned Guassian splats renderings and fine-tuned diffusion features [52.62053703535824]
本稿では,少数の画像から点雲を再構成し,そのレンダリングから点雲を識別する手法を提案する。
制約条件下での再構成を改善するため,ハイブリッド表面と外観の相違点のトレーニングを規則化する。
これらの学習したフィルタを使って、3Dの監督なしに来る点雲ノイズを除去する方法を実証する。
論文 参考訳(メタデータ) (2024-04-01T13:38:16Z) - Point2Building: Reconstructing Buildings from Airborne LiDAR Point Clouds [23.897507889025817]
航空機搭載LiDAR点雲から3次元多角形メッシュとして建物を再構築するための学習的アプローチを提案する。
このモデルでは, 点雲データから直接学習し, 誤差伝播を低減し, 再構成の忠実度を向上する。
我々は,チューリッヒ,ベルリン,タリンの航空機搭載LiDARデータの収集について実験的に検証した。
論文 参考訳(メタデータ) (2024-03-04T15:46:50Z) - DiffPoint: Single and Multi-view Point Cloud Reconstruction with ViT
Based Diffusion Model [10.253402444122084]
我々は,ポイントクラウド再構築の課題に対して,ViTと拡散モデルを組み合わせたDiffPointという巧妙で強力なアーキテクチャを提案する。
DiffPointを単視点と多視点の両方の再構成タスクで評価し、最先端の結果を得る。
論文 参考訳(メタデータ) (2024-02-17T10:18:40Z) - Take-A-Photo: 3D-to-2D Generative Pre-training of Point Cloud Models [97.58685709663287]
生成事前学習は、2次元視覚における基本モデルの性能を高めることができる。
3Dビジョンでは、トランスフォーマーベースのバックボーンの過度な信頼性と、点雲の秩序のない性質により、生成前のトレーニングのさらなる発展が制限されている。
本稿では,任意の点クラウドモデルに適用可能な3D-to-2D生成事前学習法を提案する。
論文 参考訳(メタデータ) (2023-07-27T16:07:03Z) - Intrinsic Image Decomposition Using Point Cloud Representation [13.771632868567277]
本稿では3次元クラウドデータを利用してアルベドとシェーディングマップを同時に推定するPoint Intrinsic Net(PoInt-Net)を紹介する。
PoInt-Netは効率的で、任意のサイズのポイントクラウドで一貫したパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-07-20T14:51:28Z) - Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion [53.93172686610741]
Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
我々の手法は、いくつかの教師付き手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2022-12-01T15:11:21Z) - From Image Collections to Point Clouds with Self-supervised Shape and
Pose Networks [53.71440550507745]
2次元画像から3Dモデルを再構成することは、コンピュータビジョンの基本的な問題の一つである。
本研究では,1枚の画像から3次元オブジェクトを再構成する深層学習手法を提案する。
我々は,3次元点雲の再構成と推定ネットワークの自己教師方式の両方を学習する。
論文 参考訳(メタデータ) (2020-05-05T04:25:16Z) - ImVoteNet: Boosting 3D Object Detection in Point Clouds with Image Votes [93.82668222075128]
RGB-Dシーンに対するImVoteNetと呼ばれる3次元検出アーキテクチャを提案する。
ImVoteNetは、画像に2D票、ポイントクラウドに3D票を投じることに基づいている。
挑戦的なSUN RGB-Dデータセット上でモデルを検証した。
論文 参考訳(メタデータ) (2020-01-29T05:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。