論文の概要: GGS: Generalizable Gaussian Splatting for Lane Switching in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2409.02382v1
- Date: Wed, 4 Sep 2024 02:18:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-05 20:41:08.405271
- Title: GGS: Generalizable Gaussian Splatting for Lane Switching in Autonomous Driving
- Title(参考訳): GGS: 自動運転におけるレーンスイッチングのための一般化可能なガウススティング
- Authors: Huasong Han, Kaixuan Zhou, Xiaoxiao Long, Yusen Wang, Chunxia Xiao,
- Abstract要約: 大局的な視点変化下で現実的なレンダリングを実現するための一般化可能な自律走行用ガウス切削法を提案する。
新しい仮想レーン生成モジュールは、マルチレーンデータセットなしで高品質なレーン切替を可能にする。
提案手法は,既存手法と比較して最先端性能を示す。
- 参考スコア(独自算出の注目度): 18.741345640930813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose GGS, a Generalizable Gaussian Splatting method for Autonomous Driving which can achieve realistic rendering under large viewpoint changes. Previous generalizable 3D gaussian splatting methods are limited to rendering novel views that are very close to the original pair of images, which cannot handle large differences in viewpoint. Especially in autonomous driving scenarios, images are typically collected from a single lane. The limited training perspective makes rendering images of a different lane very challenging. To further improve the rendering capability of GGS under large viewpoint changes, we introduces a novel virtual lane generation module into GSS method to enables high-quality lane switching even without a multi-lane dataset. Besides, we design a diffusion loss to supervise the generation of virtual lane image to further address the problem of lack of data in the virtual lanes. Finally, we also propose a depth refinement module to optimize depth estimation in the GSS model. Extensive validation of our method, compared to existing approaches, demonstrates state-of-the-art performance.
- Abstract(参考訳): GGSは,大局的な視点変化下で現実的なレンダリングを実現することのできる,一般化可能な自律運転用ガウス切削法である。
従来の一般化可能な3次元ガウススプラッティング法は、視点の大きな違いに対処できない、元の2つの画像に非常に近い新しいビューのレンダリングに限られている。
特に自動運転のシナリオでは、画像は通常、1車線から収集される。
限られたトレーニングの観点は、異なるレーンの画像のレンダリングを非常に困難にします。
GGSのレンダリング能力を大幅に向上させるため,マルチレーンデータセットを使わずに高品質なレーン切替を実現するため,新しい仮想レーン生成モジュールをGAS方式に導入した。
さらに,仮想車線画像の生成を監督する拡散損失を設計し,仮想車線におけるデータ不足の問題に対処する。
最後に, GSSモデルにおける深度推定を最適化する深度修正モジュールを提案する。
提案手法の大規模検証は,既存手法と比較して,最先端の性能を示すものである。
関連論文リスト
- HoliGS: Holistic Gaussian Splatting for Embodied View Synthesis [59.25751939710903]
本稿では,長い単眼RGBビデオのエンボディドビュー合成に対処する,変形可能なガウススプラッティングフレームワークを提案する。
提案手法は,非可逆ガウス散乱変形ネットワークを利用して大規模動的環境を正確に再構築する。
その結果、現実のシナリオにおけるEVSの実用的でスケーラブルなソリューションが浮かび上がっています。
論文 参考訳(メタデータ) (2025-06-24T03:54:40Z) - 3D Gaussian Splatting for Fine-Detailed Surface Reconstruction in Large-Scale Scene [9.344622188779308]
本稿では,大規模な表面を細部まで細部まで再現し,フルサイズの画像で観察する手法を提案する。
粗大なモデルを効率的に再構築するための粗大な戦略を導入し, 適応的なシーン分割とサブシーン精錬を行った。
無人航空機で撮影された公開データセット GauU-Scene V2 で実験が行われた。
論文 参考訳(メタデータ) (2025-06-21T08:41:28Z) - Efficient multi-view training for 3D Gaussian Splatting [13.533415744533995]
3D Gaussianting (3DGS) は、より高速な逆レンダリングにおいて、Neural Radiance Fields (NeRF) と共に好まれる選択として現れている。
現在、3DGSの一般的なアプローチは、イテレーション毎に1つのイメージしか処理されない「単一ビュー」のミニバッチトレーニングを利用することである。
我々は,このような単一視点学習が,ミニバッチ勾配のばらつきの増加による最適部分最適化につながることを観察し,マルチビュー学習の必要性を強調した。
論文 参考訳(メタデータ) (2025-06-15T05:40:50Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - GBR: Generative Bundle Refinement for High-fidelity Gaussian Splatting and Meshing [27.747748706297497]
GBR(Generative Bundle Refinement)は、4-6の入力ビューのみを用いた高忠実なガウススプラッティングとメッシュ化のための手法である。
GBRは、幾何学的精度を高めるために神経束調整モジュールと、幾何学的忠実性を改善するために生成深度改善モジュールを統合している。
GBRは、大規模な現実世界のシーンを再構築し、レンダリングする能力を示している。
論文 参考訳(メタデータ) (2024-12-08T12:00:25Z) - GPS-Gaussian+: Generalizable Pixel-wise 3D Gaussian Splatting for Real-Time Human-Scene Rendering from Sparse Views [67.34073368933814]
スパースビューカメラ設定下での高解像度画像レンダリングのための一般化可能なガウススプラッティング手法を提案する。
我々は,人間のみのデータや人景データに基づいてガウスパラメータ回帰モジュールをトレーニングし,深度推定モジュールと共同で2次元パラメータマップを3次元空間に引き上げる。
いくつかのデータセットに対する実験により、我々の手法はレンダリング速度を超越しながら最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-18T08:18:44Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - MVGS: Multi-view-regulated Gaussian Splatting for Novel View Synthesis [22.80370814838661]
ボリュームレンダリングにおける最近の研究、例えばNeRFや3D Gaussian Splatting (3DGS)は、レンダリング品質と効率を大幅に向上させた。
4つの重要な貢献を具現化した新しい3DGS最適化手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T23:48:31Z) - GaRField++: Reinforced Gaussian Radiance Fields for Large-Scale 3D Scene Reconstruction [1.7624442706463355]
本稿では,3次元ガウススプラッティングに基づく大規模シーン再構築のための新しい枠組みを提案する(3DGS)。
スケーラビリティ問題に対処するため,大規模シーンを複数のセルに分割し,各セルの候補ポイントクラウドとカメラビューとを相関させる。
本研究では,大規模シーン再構成の最先端手法よりも連続的に高忠実度レンダリング結果を生成することを示す。
論文 参考訳(メタデータ) (2024-09-19T13:43:31Z) - TranSplat: Generalizable 3D Gaussian Splatting from Sparse Multi-View Images with Transformers [14.708092244093665]
我々は,正確な局所特徴マッチングを導くために,予測深度信頼マップを利用する戦略を開発する。
本稿では,RealEstate10KベンチマークとACIDベンチマークの両方で最高の性能を示すTranSplatという新しいG-3DGS手法を提案する。
論文 参考訳(メタデータ) (2024-08-25T08:37:57Z) - SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z) - HO-Gaussian: Hybrid Optimization of 3D Gaussian Splatting for Urban Scenes [24.227745405760697]
本稿では,グリッドベースボリュームと3DGSパイプラインを組み合わせたHO-Gaussianというハイブリッド最適化手法を提案する。
広範に使用されている自律走行データセットの結果から,HO-Gaussianはマルチカメラ都市データセット上でリアルタイムに写真リアリスティックレンダリングを実現することが示された。
論文 参考訳(メタデータ) (2024-03-29T07:58:21Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。