論文の概要: Diffusion-Occ: 3D Point Cloud Completion via Occupancy Diffusion
- arxiv url: http://arxiv.org/abs/2408.14846v1
- Date: Tue, 27 Aug 2024 07:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 14:33:22.628417
- Title: Diffusion-Occ: 3D Point Cloud Completion via Occupancy Diffusion
- Title(参考訳): Diffusion-Occ:3D Point Cloud Completion via Occupancy Diffusion
- Authors: Guoqing Zhang, Jian Liu,
- Abstract要約: 拡散点クラウドコンプリートのための新しいフレームワークである textbfDiffusion-Occ を紹介する。
占有領域をしきい値にすることで、それを完全点雲に変換する。
実験の結果,Diffusion-Occは既存の差別的・生成的手法よりも優れていた。
- 参考スコア(独自算出の注目度): 5.189790379672664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point clouds are crucial for capturing three-dimensional data but often suffer from incompleteness due to limitations such as resolution and occlusion. Traditional methods typically rely on point-based approaches within discriminative frameworks for point cloud completion. In this paper, we introduce \textbf{Diffusion-Occ}, a novel framework for Diffusion Point Cloud Completion. Diffusion-Occ utilizes a two-stage coarse-to-fine approach. In the first stage, the Coarse Density Voxel Prediction Network (CDNet) processes partial points to predict coarse density voxels, streamlining global feature extraction through voxel classification, as opposed to previous regression-based methods. In the second stage, we introduce the Occupancy Generation Network (OccGen), a conditional occupancy diffusion model based on a transformer architecture and enhanced by our Point-Voxel Fuse (PVF) block. This block integrates coarse density voxels with partial points to leverage both global and local features for comprehensive completion. By thresholding the occupancy field, we convert it into a complete point cloud. Additionally, our method employs diverse training mixtures and efficient diffusion parameterization to enable effective one-step sampling during both training and inference. Experimental results demonstrate that Diffusion-Occ outperforms existing discriminative and generative methods.
- Abstract(参考訳): 点雲は3次元データを取得するのに不可欠であるが、解像度や閉塞などの制限により不完全性に悩まされることが多い。
従来のメソッドは通常、ポイントクラウド補完のための差別的なフレームワーク内のポイントベースのアプローチに依存します。
本稿では,Diffusion Point Cloud Completion のための新しいフレームワークである \textbf{Diffusion-Occ} を紹介する。
Diffusion-Occは2段階の粗大なアプローチを採用している。
第1段階では、粗度ボクセル予測ネットワーク(CDNet)が部分点を処理して粗度ボクセルを予測する。
第2段階では, 変圧器アーキテクチャに基づく条件付き占有拡散モデルであるOccGenを導入し, PVF(Point-Voxel Fuse)ブロックで拡張した。
このブロックは粗密度ボクセルと部分点を統合し、大域的特徴と局所的特徴の両方を利用して包括的完備化を行う。
占有領域をしきい値にすることで、それを完全点雲に変換する。
さらに,本手法では,訓練と推論の双方において,効果的な一段階サンプリングを可能にするために,多種多様な訓練混合物と効率的な拡散パラメタライゼーションを用いる。
実験の結果,Diffusion-Occは既存の差別的・生成的手法よりも優れていた。
関連論文リスト
- Rectified Diffusion Guidance for Conditional Generation [62.00207951161297]
CFGの背後にある理論を再検討し、組合せ係数の不適切な構成(すなわち、広く使われている和対1バージョン)が生成分布の期待シフトをもたらすことを厳密に確認する。
本稿では,誘導係数を緩和したReCFGを提案する。
このようにして、修正された係数は観測されたデータをトラバースすることで容易に事前計算でき、サンプリング速度はほとんど影響を受けない。
論文 参考訳(メタデータ) (2024-10-24T13:41:32Z) - Zero-shot Point Cloud Completion Via 2D Priors [52.72867922938023]
3次元点雲の完成は、部分的に観測された点雲から完全な形状を復元するように設計されている。
そこで本研究では, 観測された点群を対象とするゼロショットフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T08:02:17Z) - Enhancing Diffusion-based Point Cloud Generation with Smoothness Constraint [5.140589325829964]
拡散モデルはポイントクラウド生成タスクで人気がある。
点雲生成のための拡散フレームワークに局所的滑らか性制約を組み込むことを提案する。
実験により、提案モデルが現実的な形状とスムーズな点雲を生成できることを示した。
論文 参考訳(メタデータ) (2024-04-03T01:55:15Z) - IPoD: Implicit Field Learning with Point Diffusion for Generalizable 3D Object Reconstruction from Single RGB-D Images [50.4538089115248]
シングルビューRGB-D画像からの3Dオブジェクトの汎用化は依然として難しい課題である。
本稿では,暗黙の場学習と点拡散を調和させる新しい手法IPoDを提案する。
CO3D-v2データセットによる実験では、IPoDの優位性が確認され、Fスコアは7.8%、チャンファー距離は28.6%向上した。
論文 参考訳(メタデータ) (2024-03-30T07:17:37Z) - Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - CCD-3DR: Consistent Conditioning in Diffusion for Single-Image 3D
Reconstruction [81.98244738773766]
本稿では,一貫した局所的特徴条件付けのために,新しい集中拡散確率モデルを利用するCDD-3DRを提案する。
CCD-3DRは、40%以上の改善を伴い、全ての競合より大きなマージンを達成している。
論文 参考訳(メタデータ) (2023-08-15T15:27:42Z) - HybridFusion: LiDAR and Vision Cross-Source Point Cloud Fusion [15.94976936555104]
我々はHybridFusionと呼ばれるクロスソース点雲融合アルゴリズムを提案する。
アウトドアの大きなシーンでは、異なる視角から、ソース間の密集点雲を登録することができる。
提案手法は,定性的,定量的な実験を通じて総合的に評価される。
論文 参考訳(メタデータ) (2023-04-10T10:54:54Z) - Generative Modeling with Flow-Guided Density Ratio Learning [12.192867460641835]
Flow-Guided Density Ratio Learning (FDRL)は、生成モデルに対するシンプルでスケーラブルなアプローチである。
我々は,FDRLが128時間128ドルの高次元の画像を生成するとともに,既存の勾配流ベースラインを定量的なベンチマークで上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-07T07:55:52Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。