論文の概要: MADrive: Memory-Augmented Driving Scene Modeling
- arxiv url: http://arxiv.org/abs/2506.21520v1
- Date: Thu, 26 Jun 2025 17:41:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.228162
- Title: MADrive: Memory-Augmented Driving Scene Modeling
- Title(参考訳): MADrive: メモリ拡張駆動シーンモデリング
- Authors: Polina Karpikova, Daniil Selikhanovych, Kirill Struminsky, Ruslan Musaev, Maria Golitsyna, Dmitry Baranchuk,
- Abstract要約: MADriveは、既存のシーン再構築の能力を拡張するために設計されたメモリ拡張された再構築フレームワークである。
大型の外部メモリバンクから回収された視覚的に類似した3Dアセットで観察された車両を置き換える。
結果として得られる置換は、シーン内の車両の完全なマルチビュー表現を提供し、実質的に変化する構成の光現実的な合成を可能にする。
- 参考スコア(独自算出の注目度): 8.604680698214196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in scene reconstruction have pushed toward highly realistic modeling of autonomous driving (AD) environments using 3D Gaussian splatting. However, the resulting reconstructions remain closely tied to the original observations and struggle to support photorealistic synthesis of significantly altered or novel driving scenarios. This work introduces MADrive, a memory-augmented reconstruction framework designed to extend the capabilities of existing scene reconstruction methods by replacing observed vehicles with visually similar 3D assets retrieved from a large-scale external memory bank. Specifically, we release MAD-Cars, a curated dataset of ${\sim}70$K 360{\deg} car videos captured in the wild and present a retrieval module that finds the most similar car instances in the memory bank, reconstructs the corresponding 3D assets from video, and integrates them into the target scene through orientation alignment and relighting. The resulting replacements provide complete multi-view representations of vehicles in the scene, enabling photorealistic synthesis of substantially altered configurations, as demonstrated in our experiments. Project page: https://yandex-research.github.io/madrive/
- Abstract(参考訳): シーン再構築の最近の進歩は、3次元ガウススプラッティングを用いた自律走行環境の高度に現実的なモデリングに向けて進んでいる。
しかし、結果として得られた再構成は元の観測と密接な関係を保ち、大幅な変更や新規な運転シナリオの光リアル合成を支援するのに苦労している。
大規模な外部メモリバンクから取得した視覚的に類似した3Dアセットに、既存のシーン再構築手法の能力を置き換えることにより、メモリ拡張された再構築フレームワークであるMADriveを導入する。
具体的には、野生で撮影された${\sim}70$K 360{\deg}カービデオのキュレートされたデータセットであるMAD-Carsをリリースし、メモリバンク内で最もよく似た車のインスタンスを見つけ、ビデオから対応する3Dアセットを再構築し、向きのアライメントとリライトによってターゲットシーンに統合する検索モジュールを提示する。
得られた置換により、シーン内の車両の完全なマルチビュー表現が提供され、実験で示されたように、実質的に変化する構成の光リアルな合成が可能となった。
プロジェクトページ: https://yandex-research.github.io/madrive/
関連論文リスト
- LiteReality: Graphics-Ready 3D Scene Reconstruction from RGB-D Scans [64.31686158593351]
LiteRealityは、屋内環境のRGB-Dスキャンをコンパクトでリアルでインタラクティブな3D仮想レプリカに変換する、新しいパイプラインである。
LiteRealityは、オブジェクトの個性、明瞭さ、高品質なレンダリング材料、物理ベースのインタラクションなど、グラフィックパイプラインに不可欠な重要な機能をサポートしている。
本研究は,LiteRealityが実生活スキャンと公開データセットの両方に与える影響を実証する。
論文 参考訳(メタデータ) (2025-07-03T17:59:55Z) - DreamDrive: Generative 4D Scene Modeling from Street View Images [55.45852373799639]
生成と再構成の利点を組み合わせた4次元時空間シーン生成手法であるDreamDriveを提案する。
具体的には,映像拡散モデルの生成力を利用して,映像参照のシーケンスを合成する。
次に、ガウシアンスプラッティングで3D一貫性のあるドライビングビデオをレンダリングします。
論文 参考訳(メタデータ) (2024-12-31T18:59:57Z) - DrivingRecon: Large 4D Gaussian Reconstruction Model For Autonomous Driving [83.27075316161086]
光リアルな4次元ストリートシーンの再構築は、自動運転における実環境シミュレータの開発に不可欠である。
本稿では,汎用的な運転シーン再構築モデルであるLarge 4D Gaussian Reconstruction Model (DrivingRecon)を紹介する。
ドライビングレコンは既存の手法に比べてシーンの再現性や新しいビュー合成を著しく向上させる。
論文 参考訳(メタデータ) (2024-12-12T08:10:31Z) - MagicDrive3D: Controllable 3D Generation for Any-View Rendering in Street Scenes [72.02827211293736]
制御可能な3Dストリートシーン生成のための新しいパイプラインであるMagicDrive3Dを紹介する。
生成モデルをトレーニングする前に再構築する従来の方法とは異なり、MagicDrive3Dはまずビデオ生成モデルをトレーニングし、生成したデータから再構成する。
本研究の結果は, 自律運転シミュレーション等の可能性を示すとともに, フレームワークの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-05-23T12:04:51Z) - DrivingGaussian: Composite Gaussian Splatting for Surrounding Dynamic Autonomous Driving Scenes [57.12439406121721]
我々は動的自律走行シーンを囲む効率的かつ効果的なフレームワークであるDrivingGaussianを提案する。
動くオブジェクトを持つ複雑なシーンでは、まずシーン全体の静的な背景を逐次、段階的にモデル化します。
次に、複合動的ガウスグラフを利用して、複数の移動物体を処理する。
我々はさらに、ガウススプラッティングに先立ってLiDARを使用して、より詳細でシーンを再構築し、パノラマ一貫性を維持する。
論文 参考訳(メタデータ) (2023-12-13T06:30:51Z) - AutoRecon: Automated 3D Object Discovery and Reconstruction [41.60050228813979]
多視点画像からのオブジェクトの自動発見と再構築のための新しいフレームワークAutoReconを提案する。
本研究では,SfM点群からフォアグラウンド・オブジェクトの位置とセグメンテーションを,自己監督型2次元ビジョン・トランスフォーマーの機能を活用して行うことを実証する。
DTU、BlendedMVS、CO3D-V2データセットの実験はAutoReconの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-05-15T17:16:46Z) - READ: Large-Scale Neural Scene Rendering for Autonomous Driving [21.144110676687667]
自律走行シーンを合成するために,大規模ニューラルレンダリング手法を提案する。
我々のモデルは現実的な運転シーンを合成できるだけでなく、運転シーンの縫い付けや編集もできる。
論文 参考訳(メタデータ) (2022-05-11T14:02:14Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。