論文の概要: AD-GS: Object-Aware B-Spline Gaussian Splatting for Self-Supervised Autonomous Driving
- arxiv url: http://arxiv.org/abs/2507.12137v3
- Date: Tue, 05 Aug 2025 02:59:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 15:23:34.654284
- Title: AD-GS: Object-Aware B-Spline Gaussian Splatting for Self-Supervised Autonomous Driving
- Title(参考訳): AD-GS:自己監督型自律運転のためのオブジェクト認識型Bスプラインガウシアンスプラッティング
- Authors: Jiawei Xu, Kai Deng, Zexin Fan, Shenlong Wang, Jin Xie, Jian Yang,
- Abstract要約: 我々は,単一のログから駆動シーンの高品質な自由視点レンダリングを実現するための,新しい自己教師型フレームワークAD-GSを紹介する。
中心となるのは、局所性を考慮したB-スプライン曲線と大域的な三角関数を統合する新しい学習可能な運動モデルである。
我々のモデルは、可視性推論と物理的に厳密な正規化を取り入れ、堅牢性を高めている。
- 参考スコア(独自算出の注目度): 29.420887070252274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling and rendering dynamic urban driving scenes is crucial for self-driving simulation. Current high-quality methods typically rely on costly manual object tracklet annotations, while self-supervised approaches fail to capture dynamic object motions accurately and decompose scenes properly, resulting in rendering artifacts. We introduce AD-GS, a novel self-supervised framework for high-quality free-viewpoint rendering of driving scenes from a single log. At its core is a novel learnable motion model that integrates locality-aware B-spline curves with global-aware trigonometric functions, enabling flexible yet precise dynamic object modeling. Rather than requiring comprehensive semantic labeling, AD-GS automatically segments scenes into objects and background with the simplified pseudo 2D segmentation, representing objects using dynamic Gaussians and bidirectional temporal visibility masks. Further, our model incorporates visibility reasoning and physically rigid regularization to enhance robustness. Extensive evaluations demonstrate that our annotation-free model significantly outperforms current state-of-the-art annotation-free methods and is competitive with annotation-dependent approaches.
- Abstract(参考訳): 動的都市運転シーンのモデリングとレンダリングは、自動運転シミュレーションに不可欠である。
現在の高品質なメソッドは通常、コストのかかる手作業によるオブジェクトのトラックレットアノテーションに依存しているが、自己監督的なアプローチでは、動的オブジェクトの動きを正確にキャプチャできず、シーンを適切に分解し、成果物を描画する。
本稿では,単一ログからの運転シーンの高品質な自由視点レンダリングのための,新しい自己教師型フレームワークAD-GSを紹介する。
中心となるのは、局所性を考慮したB-スプライン曲線をグローバルな三角関数と統合し、柔軟かつ正確な動的オブジェクトモデリングを可能にする新しい学習可能な運動モデルである。
包括的なセマンティックラベリングを必要とするのではなく、AD-GSはシーンを自動的にオブジェクトと背景に分割し、動的ガウスと双方向の時間視認マスクを使用してオブジェクトを表現する。
さらに, 可視性推論と物理的剛性正規化を取り入れ, 頑健性を高める。
我々のアノテーションフリーモデルは,現在最先端のアノテーションフリー手法よりも優れており,アノテーション依存アプローチと競合することを示す。
関連論文リスト
- BézierGS: Dynamic Urban Scene Reconstruction with Bézier Curve Gaussian Splatting [3.376357029373187]
B'ezier curve splatting (B'ezierGS) は、学習可能な B'ezier curve を用いて動的対象の運動軌跡を表す。
B'ezierGSは動的および静的なシーンコンポーネントの再構築と新しいビュー合成において、最先端の代替よりも優れている。
論文 参考訳(メタデータ) (2025-06-27T10:30:16Z) - MoSiC: Optimal-Transport Motion Trajectory for Dense Self-Supervised Learning [66.53533434848369]
密集した表現を学習する動き誘導型自己学習フレームワークを提案する。
6つの画像およびビデオデータセットと4つの評価ベンチマークにおいて、最先端を1%から6%改善する。
論文 参考訳(メタデータ) (2025-06-10T11:20:32Z) - GeoDrive: 3D Geometry-Informed Driving World Model with Precise Action Control [50.67481583744243]
実世界モデルにロバストな3次元形状条件を明示的に統合したGeoDriveを紹介する。
車両の位置を編集することでレンダリングを強化するため,トレーニング中の動的編集モジュールを提案する。
動作精度と空間認識の両面で既存のモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-05-28T14:46:51Z) - LEGO-Motion: Learning-Enhanced Grids with Occupancy Instance Modeling for Class-Agnostic Motion Prediction [12.071846486955627]
本稿ではLEGO-Motionという,クラスに依存しない動作予測タスクのための新しい占有状況モデリングフレームワークを提案する。
本モデルは,(1)BEVエンコーダ,(2)Interaction-Augmented Instance,(3)インスタンス強化型BEVからなる。
提案手法は最先端の性能を達成し,既存手法より優れている。
論文 参考訳(メタデータ) (2025-03-10T14:26:21Z) - SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - DualAD: Disentangling the Dynamic and Static World for End-to-End Driving [11.379456277711379]
自動運転のための最先端のアプローチは、全体運転タスクの複数のサブタスクを単一のパイプラインに統合する。
動的エージェントと静的シーン要素を分離する専用表現を提案する。
DualADというタイトルの手法は、独立に訓練されたシングルタスクネットワークよりも優れています。
論文 参考訳(メタデータ) (2024-06-10T13:46:07Z) - AIDE: An Automatic Data Engine for Object Detection in Autonomous Driving [68.73885845181242]
本稿では,問題を自動的に識別し,データを効率よくキュレートし,自動ラベル付けによりモデルを改善する自動データエンジン(AIDE)を提案する。
さらに,AVデータセットのオープンワールド検出のためのベンチマークを構築し,様々な学習パラダイムを包括的に評価し,提案手法の優れた性能を低コストで実証する。
論文 参考訳(メタデータ) (2024-03-26T04:27:56Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - UniQuadric: A SLAM Backend for Unknown Rigid Object 3D Tracking and
Light-Weight Modeling [7.626461564400769]
本稿では,エゴモーショントラッキング,剛体オブジェクトモーショントラッキング,モデリングを統一するSLAMバックエンドを提案する。
本システムは,複雑な動的シーンにおける物体知覚の潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-29T07:50:09Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - NEAT: Neural Attention Fields for End-to-End Autonomous Driving [59.60483620730437]
本稿では、模倣学習モデルの効率的な推論を可能にする新しい表現であるNEAT(NEural Attention Field)を提案する。
NEATは、Bird's Eye View (BEV) シーン座標の位置をウェイポイントとセマンティクスにマッピングする連続関数である。
有害な環境条件や挑戦的なシナリオを含む新たな評価環境では、NEATはいくつかの強いベースラインを上回り、特権のあるCARLA専門家と同等の運転スコアを達成している。
論文 参考訳(メタデータ) (2021-09-09T17:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。