論文の概要: OCCDiff: Occupancy Diffusion Model for High-Fidelity 3D Building Reconstruction from Noisy Point Clouds
- arxiv url: http://arxiv.org/abs/2512.08506v1
- Date: Tue, 09 Dec 2025 11:47:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.939335
- Title: OCCDiff: Occupancy Diffusion Model for High-Fidelity 3D Building Reconstruction from Noisy Point Clouds
- Title(参考訳): OCCDiff:ノイズ点雲からの高忠実度3次元建築復元のための作動拡散モデル
- Authors: Jialu Sui, Rui Liu, Hongsheng Zhang,
- Abstract要約: OCCDiffは、様々な解像度で建物の高品質な3Dプロファイルを柔軟に収集するために提案されている。
本手法は, ターゲット分布に対する忠実度の高い物理的に一貫したサンプルを生成し, ノイズデータに対する堅牢性を示す。
- 参考スコア(独自算出の注目度): 3.962264364723744
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A major challenge in reconstructing buildings from LiDAR point clouds lies in accurately capturing building surfaces under varying point densities and noise interference. To flexibly gather high-quality 3D profiles of the building in diverse resolution, we propose OCCDiff applying latent diffusion in the occupancy function space. Our OCCDiff combines a latent diffusion process with a function autoencoder architecture to generate continuous occupancy functions evaluable at arbitrary locations. Moreover, a point encoder is proposed to provide condition features to diffusion learning, constraint the final occupancy prediction for occupancy decoder, and insert multi-modal features for latent generation to latent encoder. To further enhance the model performance, a multi-task training strategy is employed, ensuring that the point encoder learns diverse and robust feature representations. Empirical results show that our method generates physically consistent samples with high fidelity to the target distribution and exhibits robustness to noisy data.
- Abstract(参考訳): LiDARの点雲から建物を再構築する大きな課題は、様々な点密度とノイズ干渉の下で建物表面を正確に捉えることである。
多様な解像度で建物の高品質な3Dプロファイルを柔軟に収集するために, 占有関数空間に潜時拡散を適用したOCCDiffを提案する。
我々のOCCDiffは、遅延拡散過程と関数オートエンコーダアーキテクチャを組み合わせることで、任意の場所で評価可能な連続占有関数を生成する。
さらに,拡散学習のための条件特徴を提供し,占有率の最終的な占有率予測を制約し,潜時生成のためのマルチモーダル特徴を潜時エンコーダに挿入する点エンコーダを提案する。
モデル性能をさらに向上するため、多タスクトレーニング戦略を採用し、ポイントエンコーダが多様で堅牢な特徴表現を学習することを保証する。
実験結果から,本手法はターゲット分布に対する忠実度が高い物理的に一貫したサンプルを生成し,ノイズデータに対する堅牢性を示すことがわかった。
関連論文リスト
- KDC-Diff: A Latent-Aware Diffusion Model with Knowledge Retention for Memory-Efficient Image Generation [2.0250638970950905]
KDC-Diffは、ハイパフォーマンスを維持しながら計算オーバーヘッドを大幅に削減するために設計された、新しくスケーラブルな生成フレームワークである。
本モデルでは,FID,CLIP,KID,LPIPSの指標に対して,パラメータ数,推論時間,FLOPの大幅な削減を実現し,高い性能を示す。
論文 参考訳(メタデータ) (2025-05-11T14:40:51Z) - CoDiff: Conditional Diffusion Model for Collaborative 3D Object Detection [15.63287331447003]
協調型3次元物体検出は、自律運転の分野において重要な役割を担っている。
推定誤差と時間遅延のため、エージェント間の情報の融合はしばしば空間的および時間的ノイズを伴う特徴表現をもたらす。
我々は,新しいロバストな協調認識フレームワークであるCoDiffを提案する。
論文 参考訳(メタデータ) (2025-02-17T03:20:52Z) - Unpaired Deblurring via Decoupled Diffusion Model [55.21345354747609]
UID-Diffは,未知領域における劣化性能の向上を目的とした生成拡散モデルである。
構造的特徴とぼかしパターン抽出器を別々に用いて, 抽出した特徴は, 合成データに対する教師付きデブロアリングタスクと教師なしのぼかし転送タスクに使用される。
実世界のデータセットの実験では、UID-Diffが既存の最先端の手法よりも、ぼやけた除去と構造保存に優れていることが示されている。
論文 参考訳(メタデータ) (2025-02-03T17:00:40Z) - High-Precision Dichotomous Image Segmentation via Probing Diffusion Capacity [69.32473738284374]
拡散モデルは、例外的な品質、詳細な解像度、強い文脈認識を提供することによって、テキストと画像の合成に革命をもたらした。
本稿では,拡散モデルにおける事前学習されたU-Netのポテンシャルを利用する拡散駆動セグメンテーションモデルDiffDISを提案する。
DIS5Kデータセットの実験は、DiffDISの優位性を示し、合理化された推論プロセスを通じて最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-14T02:49:23Z) - Diffusion-based 3D Object Detection with Random Boxes [58.43022365393569]
既存のアンカーベースの3D検出方法は、アンカーの実証的な設定に依存しており、アルゴリズムはエレガンスを欠いている。
提案するDiff3Detは,検出ボックスを生成対象として考慮し,拡散モデルから3次元オブジェクト検出のための提案生成へ移行する。
推論段階では、モデルは予測結果にランダムボックスのセットを徐々に洗練する。
論文 参考訳(メタデータ) (2023-09-05T08:49:53Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。