論文の概要: SAM 3D for 3D Object Reconstruction from Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2512.22452v1
- Date: Sat, 27 Dec 2025 03:47:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.06061
- Title: SAM 3D for 3D Object Reconstruction from Remote Sensing Images
- Title(参考訳): リモートセンシング画像からの3次元オブジェクト再構成のためのSAM 3D
- Authors: Junsheng Yao, Lichao Mou, Qingyu Li,
- Abstract要約: 本稿では,汎用画像から3D基礎モデルであるSAM 3Dを初めて体系的に評価する。
実験により, SAM 3DはTRELLISに比べて, よりコヒーレントな屋根形状とシャープな境界を生じることが示された。
- 参考スコア(独自算出の注目度): 3.893451853752809
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular 3D building reconstruction from remote sensing imagery is essential for scalable urban modeling, yet existing methods often require task-specific architectures and intensive supervision. This paper presents the first systematic evaluation of SAM 3D, a general-purpose image-to-3D foundation model, for monocular remote sensing building reconstruction. We benchmark SAM 3D against TRELLIS on samples from the NYC Urban Dataset, employing Frechet Inception Distance (FID) and CLIP-based Maximum Mean Discrepancy (CMMD) as evaluation metrics. Experimental results demonstrate that SAM 3D produces more coherent roof geometry and sharper boundaries compared to TRELLIS. We further extend SAM 3D to urban scene reconstruction through a segment-reconstruct-compose pipeline, demonstrating its potential for urban scene modeling. We also analyze practical limitations and discuss future research directions. These findings provide practical guidance for deploying foundation models in urban 3D reconstruction and motivate future integration of scene-level structural priors.
- Abstract(参考訳): リモートセンシング画像からのモノクロ3Dビルの再構築は、スケーラブルな都市モデリングには不可欠であるが、既存の手法ではタスク固有のアーキテクチャと集中的な監視を必要とすることが多い。
本稿では,モノクラーリモートセンシングビルディング再構築のための汎用イメージ・ツー・3D基盤モデルSAM 3Dを初めて体系的に評価する。
ニューヨーク市の都市データセットのサンプルから,Frechet Inception Distance(FID)とCLIPベースの最大平均離散度(CMMD)を用いてSAM 3DをTRELLISと比較した。
実験により, SAM 3DはTRELLISに比べて, よりコヒーレントな屋根形状とシャープな境界を生じることが示された。
さらに SAM 3D をセグメント再構成構成パイプラインにより都市景観に拡張し,都市景観のモデル化の可能性を示す。
また,実践的な限界を分析し,今後の研究の方向性について議論する。
これらの知見は, 都市部における3次元再構築における基礎モデルの展開に関する実践的ガイダンスを提供し, シーンレベルの構造的事前の今後の統合を動機づけるものである。
関連論文リスト
- AREA3D: Active Reconstruction Agent with Unified Feed-Forward 3D Perception and Vision-Language Guidance [36.125573065910594]
アクティブな3D再構成により、エージェントは視点を自律的に選択し、正確で完全なシーン形状を得ることができる。
本研究では,フィードフォワード3次元再構成モデルと視覚言語指導を利用したアクティブリコンストラクションエージェントAREA3Dを提案する。
本フレームワークは、フィードフォワード再構成器からビュー不確実性モデリングを分離し、高価なオンライン最適化を伴わずに正確な不確実性推定を可能にする。
論文 参考訳(メタデータ) (2025-11-28T06:17:02Z) - AMB3R: Accurate Feed-forward Metric-scale 3D Reconstruction with Backend [18.645700170943975]
AMB3Rは、計量スケールで密集した3次元再構成のためのフィードフォワードモデルである。
AMB3Rは運動から非平衡視覚計測(オンライン)や大規模構造へシームレスに拡張可能であることを示す。
論文 参考訳(メタデータ) (2025-11-25T14:23:04Z) - Ref-SAM3D: Bridging SAM3D with Text for Reference 3D Reconstruction [45.27825308128629]
Ref-SAM3D は SAM3D の単純な拡張であり、テキスト記述を高レベルな事前表現として組み込む。
Ref-SAM3Dは、自然言語のみでガイドされ、単一の2次元ビューであり、競争力と高忠実度ゼロショット再構成性能を提供する。
論文 参考訳(メタデータ) (2025-11-24T18:58:22Z) - SAM 3D: 3Dfy Anything in Images [99.1053358868456]
画像から形状, テクスチャ, レイアウトを予測し, 視覚的な3Dオブジェクト再構成のための生成モデルSAM 3Dを提案する。
オブジェクトの形状、テクスチャ、ポーズをアノテートするための、人間用およびモデル・イン・ザ・ループパイプラインでこれを実現する。
コードとモデルの重み付け、オンラインデモ、そしてWild 3Dオブジェクト再構築のための新しい挑戦的なベンチマークをリリースします。
論文 参考訳(メタデータ) (2025-11-20T18:31:46Z) - From Flight to Insight: Semantic 3D Reconstruction for Aerial Inspection via Gaussian Splatting and Language-Guided Segmentation [3.0477617036157136]
高忠実度3D再構成は, インフラ監視, 構造評価, 環境調査などの航空検査業務において重要である。
従来のフォトグラム法は幾何学的モデリングを可能にするが、意味論的解釈性に欠け、自動検査の有効性を制限している。
ニューラルレンダリングと3Dガウススプラッティング(3DGS)の最近の進歩は、効率的でフォトリアリスティックな再構築を提供するが、同様にシーンレベルの理解が欠如している。
言語誘導型3DセグメンテーションのためにFeature-3DGSを拡張するUAVベースのパイプラインを提案する。
論文 参考訳(メタデータ) (2025-05-23T02:35:46Z) - SAM3D: Zero-Shot 3D Object Detection via Segment Anything Model [59.04877271899894]
本稿では,SAMのゼロショット能力を3次元物体検出に適用することを検討する。
大規模オープンデータセット上でオブジェクトを検出し,有望な結果を得るために,SAMを用いたBEV処理パイプラインを提案する。
論文 参考訳(メタデータ) (2023-06-04T03:09:21Z) - gSDF: Geometry-Driven Signed Distance Functions for 3D Hand-Object
Reconstruction [94.46581592405066]
我々は手の構造を利用してSDFによる形状復元の指導を行う。
我々は、ポーズ変換のキネマティック連鎖を予測し、SDFを高調波ハンドポーズと整列させる。
論文 参考訳(メタデータ) (2023-04-24T10:05:48Z) - MobileBrick: Building LEGO for 3D Reconstruction on Mobile Devices [78.20154723650333]
高品質な3次元地下構造は3次元物体再構成評価に不可欠である。
本稿では,モバイルデバイスを用いた新しいマルチビューRGBDデータセットを提案する。
我々は,ハイエンド3Dスキャナーを使わずに,精密な3次元地下構造が得られる。
論文 参考訳(メタデータ) (2023-03-03T14:02:50Z) - Elevation Estimation-Driven Building 3D Reconstruction from Single-View
Remote Sensing Imagery [20.001807614214922]
リモートセンシング画像からの3D再構築は、スマートシティやフォトグラムなどの分野に幅広い応用がある。
入力単視点リモートセンシング画像から3次元ビルディングモデルを再構築するための効率的なDSM推定駆動再構築フレームワーク(Building3D)を提案する。
我々のビル3Dは高度予測のためのSFFDEネットワークに根ざし、マスク構築のためのビル抽出ネットワークと同期し、点雲再構成、表面再構成(シティGMLモデル再構成)を順次実施する。
論文 参考訳(メタデータ) (2023-01-11T17:20:30Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。