論文の概要: GaussianFusionOcc: A Seamless Sensor Fusion Approach for 3D Occupancy Prediction Using 3D Gaussians
- arxiv url: http://arxiv.org/abs/2507.18522v1
- Date: Thu, 24 Jul 2025 15:46:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.93751
- Title: GaussianFusionOcc: A Seamless Sensor Fusion Approach for 3D Occupancy Prediction Using 3D Gaussians
- Title(参考訳): GaussianFusionOcc:3次元ガウスを用いた3次元動作予測のためのシームレスセンサフュージョンアプローチ
- Authors: Tomislav Pavković, Mohammad-Ali Nikouei Mahani, Johannes Niedermayer, Johannes Betz,
- Abstract要約: 3Dセマンティック占有予測は、自動運転の重要なタスクの1つである。
本稿では,複雑な環境下での3Dセマンティック占有度を予測する新しい手法を提案する。
セマンティックな3Dガウスアンと、革新的なセンサー融合機構を併用する。
- 参考スコア(独自算出の注目度): 4.635245015125757
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D semantic occupancy prediction is one of the crucial tasks of autonomous driving. It enables precise and safe interpretation and navigation in complex environments. Reliable predictions rely on effective sensor fusion, as different modalities can contain complementary information. Unlike conventional methods that depend on dense grid representations, our approach, GaussianFusionOcc, uses semantic 3D Gaussians alongside an innovative sensor fusion mechanism. Seamless integration of data from camera, LiDAR, and radar sensors enables more precise and scalable occupancy prediction, while 3D Gaussian representation significantly improves memory efficiency and inference speed. GaussianFusionOcc employs modality-agnostic deformable attention to extract essential features from each sensor type, which are then used to refine Gaussian properties, resulting in a more accurate representation of the environment. Extensive testing with various sensor combinations demonstrates the versatility of our approach. By leveraging the robustness of multi-modal fusion and the efficiency of Gaussian representation, GaussianFusionOcc outperforms current state-of-the-art models.
- Abstract(参考訳): 3Dセマンティック占有予測は、自動運転の重要なタスクの1つである。
複雑な環境で正確で安全な解釈とナビゲーションを可能にする。
信頼性のある予測は、様々なモダリティが相補的な情報を含むことができるため、効果的なセンサー融合に依存する。
密度グリッド表現に依存する従来の手法とは異なり、ガウスフーションOccは革新的なセンサー融合機構とともに意味3Dガウスを用いる。
カメラ、LiDAR、レーダーセンサーからのデータのシームレスな統合により、より正確でスケーラブルな占有率予測が可能となり、3Dガウス表現はメモリ効率と推論速度を大幅に改善する。
GaussianFusionOccは、各センサタイプから重要な特徴を抽出するために、モダリティ非依存の変形性注意(modality-agnostic deformable attention)を用いる。
様々なセンサーの組み合わせによる広範囲なテストは、我々のアプローチの汎用性を示している。
マルチモーダル融合の堅牢性とガウス表現の効率を活用して、ガウスフーションOccは現在の最先端モデルより優れている。
関連論文リスト
- SDGOCC: Semantic and Depth-Guided Bird's-Eye View Transformation for 3D Multimodal Occupancy Prediction [8.723840755505817]
SDG-OCCと呼ばれる新しいマルチモーダル占有予測ネットワークを提案する。
ジョイントセマンティックとディープ誘導ビュー変換と、融合により占有されるアクティブ蒸留が組み込まれている。
提案手法は,Occ3D-nuScenesデータセットをリアルタイムに処理することで,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2025-07-22T23:49:40Z) - GaussianFusion: Gaussian-Based Multi-Sensor Fusion for End-to-End Autonomous Driving [7.989953129185359]
本稿では,エンドツーエンド自動運転のためのガウス式マルチセンサフュージョンフレームワークを提案する。
本手法では,様々なセンサからの情報を集約するために,直観的かつコンパクトなガウス表現を中間キャリアとして利用する。
明示的な特徴は交通シーンに関する豊かな意味と空間情報を捉え、暗黙的な特徴は軌道計画のための補完的な手がかりを提供する。
論文 参考訳(メタデータ) (2025-05-27T01:43:02Z) - GaussianFormer3D: Multi-Modal Gaussian-based Semantic Occupancy Prediction with 3D Deformable Attention [15.890744831541452]
3Dセマンティック占有予測は、安全で信頼性の高い自動運転を実現するために重要である。
本稿では,3次元変形可能な注意力を利用したマルチモーダルガウスに基づくセマンティック占有予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-15T20:05:08Z) - OccCylindrical: Multi-Modal Fusion with Cylindrical Representation for 3D Semantic Occupancy Prediction [9.099401529072324]
そこで我々は,OccCylindricalを提案する。
提案手法は, より微細な形状の細部を保存し, 性能を向上する。
雨と夜間のシナリオに挑戦するnuScenesデータセットで実施された実験は、我々のアプローチの有効性と最先端のパフォーマンスを確認します。
論文 参考訳(メタデータ) (2025-05-06T08:12:31Z) - Distilling Multi-view Diffusion Models into 3D Generators [4.3238419212557115]
本稿では,多視点拡散モデル(MV-DM)をガウススプラッティングを用いた3次元ジェネレータに拡散させる定式化であるDD3Gを紹介する。
DD3GはMV-DMから広範囲の視覚的および空間的知識を圧縮し統合する。
本稿では,パターン抽出とプログレッシブデコーディングのフェーズからなるジェネレータPEPDを提案する。
論文 参考訳(メタデータ) (2025-04-01T06:32:48Z) - GaussianFormer-2: Probabilistic Gaussian Superposition for Efficient 3D Occupancy Prediction [55.60972844777044]
3Dセマンティック占有予測は、堅牢な視覚中心の自律運転において重要な課題である。
既存のほとんどの手法は、密度の高いグリッドベースのシーン表現を利用しており、運転シーンの空間的空間性を見渡している。
本稿では,各ガウス分布をその周辺領域の確率分布として解釈する確率論的ガウス重ね合わせモデルを提案する。
論文 参考訳(メタデータ) (2024-12-05T17:59:58Z) - L3DG: Latent 3D Gaussian Diffusion [74.36431175937285]
L3DGは3次元ガウス拡散定式化による3次元ガウスの3次元モデリングのための最初のアプローチである。
我々は、部屋の大きさのシーンで効率的に操作するために、スパース畳み込みアーキテクチャーを用いている。
3Dガウス表現を利用することで、生成されたシーンを任意の視点からリアルタイムでレンダリングすることができる。
論文 参考訳(メタデータ) (2024-10-17T13:19:32Z) - GaussianFormer: Scene as Gaussians for Vision-Based 3D Semantic Occupancy Prediction [70.65250036489128]
3Dのセマンティック占有予測は,周囲のシーンの3Dの微細な形状とセマンティックスを得ることを目的としている。
本稿では,3Dシーンを3Dセマンティック・ガウシアンで表現するオブジェクト中心表現を提案する。
GaussianFormerは17.8%から24.8%のメモリ消費しか持たない最先端のメソッドで同等のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-27T17:59:51Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - GaussianCube: A Structured and Explicit Radiance Representation for 3D Generative Modeling [55.05713977022407]
構造的かつ完全明快な放射率表現を導入し、3次元生成モデリングを大幅に促進する。
我々はまず,新しい密度制約付きガウス適合アルゴリズムを用いてガウスキューブを導出する。
非条件およびクラス条件オブジェクト生成、デジタルアバター生成、テキスト・トゥ・3Dによる実験は、我々のモデル合成が最先端の生成結果を達成することを示す。
論文 参考訳(メタデータ) (2024-03-28T17:59:50Z) - SemGauss-SLAM: Dense Semantic Gaussian Splatting SLAM [14.126704753481972]
SemGauss-SLAMは、正確な3Dセマンティックマッピング、堅牢なカメラトラッキング、高品質なレンダリングを可能にする、密集したセマンティックSLAMシステムである。
セマンティックな特徴を3次元ガウス表現に組み込んで,環境の空間的レイアウト内で意味情報を効果的にエンコードする。
マルチフレームセマンティックアソシエーションを活用することで、この戦略は3次元ガウス表現とカメラポーズの合同最適化を可能にし、低ドリフトトラッキングと正確なセマンティックマッピングを実現する。
論文 参考訳(メタデータ) (2024-03-12T10:33:26Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。