論文の概要: DHGS: Decoupled Hybrid Gaussian Splatting for Driving Scene
- arxiv url: http://arxiv.org/abs/2407.16600v2
- Date: Mon, 29 Jul 2024 07:55:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 20:31:59.687136
- Title: DHGS: Decoupled Hybrid Gaussian Splatting for Driving Scene
- Title(参考訳): DHGS:ハイブリッド・ガウシアン・スプレイティングを分離して運転シーンを撮影
- Authors: Xi Shi, Lingli Chen, Peng Wei, Xi Wu, Tian Jiang, Yonggang Luo, Lecheng Xie,
- Abstract要約: 既存のガウシアン・スプレイティング法は、運転シーンで満足のいく斬新なビュー・シンセサイザーを実現するのにしばしば不足する。
本稿では,Decoupled Hybrid Gaussian Splatting(DHGS)と呼ばれる新しいニューラルレンダリング手法を提案する。
この研究の斬新さは、道路層と非道路層のための分離されたハイブリッドピクセルレベルのブレンダーにある。
- 参考スコア(独自算出の注目度): 6.194939793888361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing Gaussian splatting methods often fall short in achieving satisfactory novel view synthesis in driving scenes, primarily due to the absence of crafty design and geometric constraints for the involved elements. This paper introduces a novel neural rendering method termed Decoupled Hybrid Gaussian Splatting (DHGS), targeting at promoting the rendering quality of novel view synthesis for static driving scenes. The novelty of this work lies in the decoupled and hybrid pixel-level blender for road and non-road layers, without the conventional unified differentiable rendering logic for the entire scene, while still maintaining consistent and continuous superimposition through the proposed depth-ordered hybrid rendering strategy. Additionally, an implicit road representation comprised of a Signed Distance Field (SDF) is trained to supervise the road surface with subtle geometric attributes. Accompanied by the use of auxiliary transmittance loss and consistency loss, novel images with imperceptible boundary and elevated fidelity are ultimately obtained. Substantial experiments on the Waymo dataset prove that DHGS outperforms the state-of-the-art methods. The project page where more video evidences are given is: https://ironbrotherstyle.github.io/dhgs_web.
- Abstract(参考訳): 既存のガウシアン・スプレイティング法は、駆動シーンにおいて満足のいく斬新なビュー・シンセサイザーを実現するのに不足することが多いが、それは主に、工芸的なデザインや、関連する要素の幾何学的制約が欠如しているためである。
本稿では,DHGS(Decoupled Hybrid Gaussian Splatting)と呼ばれるニューラルレンダリング手法を提案する。
この研究の斬新さは、道路層と非道路層のための分離されたハイブリッドピクセルレベルブレンダーであり、従来の一様微分可能レンダリングロジックをシーン全体に含まない一方で、提案した深度順序ハイブリッドレンダリング戦略による一貫性と連続的な重ね合わせを維持している。
さらに,SDF(Signed Distance Field)からなる暗黙の道路表現を訓練し,微妙な幾何学的特性で道路表面を監督する。
補助透過率損失と整合性損失とを併用して、知覚不能境界と高次忠実度を有する新規な画像を得る。
Waymoデータセットの実質的な実験は、DHGSが最先端の手法より優れていることを証明している。
より多くのビデオ証拠が与えられるプロジェクトページは、https://ironbrotherstyle.github.io/dhgs_webである。
関連論文リスト
- NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - FewViewGS: Gaussian Splatting with Few View Matching and Multi-stage Training [15.634646420318731]
スパース入力画像を用いた3次元ガウス型新規ビュー合成法を提案する。
本稿では,新しい視点に課せられる整合性制約を考慮した多段階学習手法を提案する。
これは、利用可能なトレーニング画像のマッチングを使用して、新しいビューの生成を監督することで達成される。
論文 参考訳(メタデータ) (2024-11-04T16:21:00Z) - MVPGS: Excavating Multi-view Priors for Gaussian Splatting from Sparse Input Views [27.47491233656671]
新規ビュー合成(NVS)は3次元視覚アプリケーションにおいて重要な課題である。
我々は,3次元ガウススプラッティングに基づくマルチビュー先行を探索する数ショットNVS法である textbfMVPGS を提案する。
実験により,提案手法はリアルタイムレンダリング速度で最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2024-09-22T05:07:20Z) - GGS: Generalizable Gaussian Splatting for Lane Switching in Autonomous Driving [18.741345640930813]
大局的な視点変化下で現実的なレンダリングを実現するための一般化可能な自律走行用ガウス切削法を提案する。
新しい仮想レーン生成モジュールは、マルチレーンデータセットなしで高品質なレーン切替を可能にする。
提案手法は,既存手法と比較して最先端性能を示す。
論文 参考訳(メタデータ) (2024-09-04T02:18:35Z) - Outdoor Scene Extrapolation with Hierarchical Generative Cellular Automata [70.9375320609781]
我々は,自律走行車(AV)で多量に捕獲された大規模LiDARスキャンから微細な3次元形状を生成することを目指している。
本稿では,空間的にスケーラブルな3次元生成モデルである階層型生成セルオートマトン (hGCA) を提案する。
論文 参考訳(メタデータ) (2024-06-12T14:56:56Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - AbsGS: Recovering Fine Details for 3D Gaussian Splatting [10.458776364195796]
3D Gaussian Splatting (3D-GS) 技術は3Dプリミティブを相違可能なガウス化と組み合わせて高品質な新規ビュー結果を得る。
しかし、3D-GSは、高頻度の詳細を含む複雑なシーンで過度に再構成の問題に悩まされ、ぼやけた描画画像に繋がる。
本稿では,前述の人工物,すなわち勾配衝突の原因を包括的に分析する。
我々の戦略は過度に再構成された地域のガウス人を効果的に同定し、分割して細部を復元する。
論文 参考訳(メタデータ) (2024-04-16T11:44:12Z) - GS2Mesh: Surface Reconstruction from Gaussian Splatting via Novel Stereo Views [9.175560202201819]
3Dガウススプラッティング(3DGS)はシーンを正確に表現するための効率的なアプローチとして登場した。
本稿では,ノイズの多い3DGS表現とスムーズな3Dメッシュ表現とのギャップを埋めるための新しい手法を提案する。
私たちは、オリジナルのトレーニングポーズに対応するステレオアライメントされたイメージのペアをレンダリングし、ペアをステレオモデルに入力して深度プロファイルを取得し、最後にすべてのプロファイルを融合して単一のメッシュを得る。
論文 参考訳(メタデータ) (2024-04-02T10:13:18Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。