論文の概要: ViSE: A Systematic Approach to Vision-Only Street-View Extrapolation
- arxiv url: http://arxiv.org/abs/2510.18341v1
- Date: Tue, 21 Oct 2025 06:50:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.034394
- Title: ViSE: A Systematic Approach to Vision-Only Street-View Extrapolation
- Title(参考訳): ViSE: 視覚のみのストリートビュー外挿へのシステム的アプローチ
- Authors: Kaiyuan Tan, Yingying Shen, Haiyang Sun, Bing Wang, Guang Chen, Hangjun Ye,
- Abstract要約: 本報告では,ICCV 2025 の RealADSim Workshop NVS トラックで優勝したソリューションについて紹介する。
街路ビューの外挿における中核的な課題に対処するために,包括的4段階パイプラインを導入する。
RealADSim-NVSベンチマークにおいて,本手法は最終スコア0.441を達成し,全参加者の中で第1位となった。
- 参考スコア(独自算出の注目度): 8.962361530943976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Realistic view extrapolation is critical for closed-loop simulation in autonomous driving, yet it remains a significant challenge for current Novel View Synthesis (NVS) methods, which often produce distorted and inconsistent images beyond the original trajectory. This report presents our winning solution which ctook first place in the RealADSim Workshop NVS track at ICCV 2025. To address the core challenges of street view extrapolation, we introduce a comprehensive four-stage pipeline. First, we employ a data-driven initialization strategy to generate a robust pseudo-LiDAR point cloud, avoiding local minima. Second, we inject strong geometric priors by modeling the road surface with a novel dimension-reduced SDF termed 2D-SDF. Third, we leverage a generative prior to create pseudo ground truth for extrapolated viewpoints, providing auxilary supervision. Finally, a data-driven adaptation network removes time-specific artifacts. On the RealADSim-NVS benchmark, our method achieves a final score of 0.441, ranking first among all participants.
- Abstract(参考訳): リアルビューの外挿は自動運転におけるクローズドループシミュレーションにおいて重要であるが、現在のノベルビュー合成法(NVS)では依然として重要な課題である。
本報告では, ICCV 2025 の RealADSim Workshop NVS トラックで優勝したソリューションについて述べる。
街路ビューの外挿における中核的な課題に対処するために,包括的4段階パイプラインを導入する。
まず、データ駆動の初期化戦略を用いて、ローカルなミニマを避けるために、ロバストな擬似LiDAR点雲を生成する。
第2に,2D-SDFと呼ばれる新しい次元再現型SDFを用いて道路表面をモデル化することにより,強い幾何学的先行を注入する。
第3に,外挿された視点に対して擬似的根拠真理を生成する前に生成性を活用することにより,補助的監督を行う。
最後に、データ駆動適応ネットワークは、時間固有のアーティファクトを削除する。
RealADSim-NVSベンチマークにおいて,本手法は最終スコア0.441を達成し,全参加者の中で第1位となった。
関連論文リスト
- Efficient Virtuoso: A Latent Diffusion Transformer Model for Goal-Conditioned Trajectory Planning [0.0]
本稿では,目標条件付き軌道計画のための条件付き潜在拡散モデルであるEfficient Virtuosoを提案する。
提案手法は,Open Motionデータセット上での最先端性能を実現し,平均変位誤差(minADE)が0.25であることを示す。
一つのゴールが戦略的曖昧さを解決できる一方で、人間の運転行動を反映した正確で忠実な戦術実行を実現するためには、よりリッチで多段階のスパース経路が不可欠である。
論文 参考訳(メタデータ) (2025-09-03T19:18:02Z) - Extrapolated Urban View Synthesis Benchmark [53.657271730352214]
光シミュレーターは視覚中心型自動運転車(AV)の訓練と評価に不可欠である
中心となるのはノベルビュー合成(英語版)(NVS)であり、これはAVの広範かつ連続的なポーズ分布に対応するために、様々な目に見えない視点を生成する能力である。
近年の3次元ガウス・スプラッティングのような放射場の発展は、リアルタイムなリアルタイムレンダリングを実現し、大規模ドライビングシーンのモデリングに広く利用されている。
自動運転車と都市ロボットシミュレーション技術の進歩を支援するために、データを公開します。
論文 参考訳(メタデータ) (2024-12-06T18:41:39Z) - Deep Loss Convexification for Learning Iterative Models [11.36644967267829]
点雲登録のための反復的最近点(ICP)のような反復的手法は、しばしば悪い局所最適性に悩まされる。
我々は,各地真実の周囲に凸景観を形成する学習を提案する。
論文 参考訳(メタデータ) (2024-11-16T01:13:04Z) - AdaOcc: Adaptive Forward View Transformation and Flow Modeling for 3D Occupancy and Flow Prediction [56.72301849123049]
CVPR 2024 における nuScenes Open-Occ データセットチャレンジにおいて,視覚中心の3次元活動とフロー予測トラックのソリューションを提案する。
我々の革新的なアプローチは、適応的なフォワード・ビュー・トランスフォーメーションとフロー・モデリングを取り入れることで、3次元の占有率とフロー予測を向上させる2段階のフレームワークである。
提案手法は回帰と分類を組み合わせることで,様々な場面におけるスケールの変動に対処し,予測フローを利用して将来のフレームに現行のボクセル特徴をワープする。
論文 参考訳(メタデータ) (2024-07-01T16:32:15Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,新しい駆動ビュー合成評価のための合成データセットを提案する。
トレーニングコースから逸脱した画像を1~4ドル(約1,400円)で撮影する。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - ViiNeuS: Volumetric Initialization for Implicit Neural Surface reconstruction of urban scenes with limited image overlap [4.216707699421813]
ViiNeuSは、符号付き距離場を効率よく初期化する、新しいハイブリッドな暗黙曲面学習法である。
ViiNeuSは、訓練の2倍の速さで、様々な都市景観の正確な3次元表面表現を学習できることを示す。
論文 参考訳(メタデータ) (2024-03-15T14:31:17Z) - Learning-based Point Cloud Registration for 6D Object Pose Estimation in
the Real World [55.7340077183072]
我々は、ポイントクラウドデータからオブジェクトの6Dポーズを推定するタスクに取り組む。
この課題に対処する最近の学習ベースのアプローチは、合成データセットにおいて大きな成功を収めている。
これらの障害の原因を分析し、ソースとターゲットポイントの雲の特徴分布の違いに遡る。
論文 参考訳(メタデータ) (2022-03-29T07:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。