論文の概要: LongSplat: Robust Unposed 3D Gaussian Splatting for Casual Long Videos
- arxiv url: http://arxiv.org/abs/2508.14041v1
- Date: Tue, 19 Aug 2025 17:59:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:32.04342
- Title: LongSplat: Robust Unposed 3D Gaussian Splatting for Casual Long Videos
- Title(参考訳): LongSplat:ロバスト・ロバストがカジュアル・ビデオのための3Dガウシアン・スプレイティングを発表
- Authors: Chin-Yang Lin, Cheng Sun, Fu-En Yang, Min-Hung Chen, Yen-Yu Lin, Yu-Lun Liu,
- Abstract要約: LongSplatは、不規則なカメラの動き、未知のカメラポーズ、拡張的なシーンを特徴とする、カジュアルにキャプチャされたロングビデオからの新規ビュー合成(NVS)の課題に対処する。
長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺長尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺高尺
- 参考スコア(独自算出の注目度): 24.61106294159454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LongSplat addresses critical challenges in novel view synthesis (NVS) from casually captured long videos characterized by irregular camera motion, unknown camera poses, and expansive scenes. Current methods often suffer from pose drift, inaccurate geometry initialization, and severe memory limitations. To address these issues, we introduce LongSplat, a robust unposed 3D Gaussian Splatting framework featuring: (1) Incremental Joint Optimization that concurrently optimizes camera poses and 3D Gaussians to avoid local minima and ensure global consistency; (2) a robust Pose Estimation Module leveraging learned 3D priors; and (3) an efficient Octree Anchor Formation mechanism that converts dense point clouds into anchors based on spatial density. Extensive experiments on challenging benchmarks demonstrate that LongSplat achieves state-of-the-art results, substantially improving rendering quality, pose accuracy, and computational efficiency compared to prior approaches. Project page: https://linjohnss.github.io/longsplat/
- Abstract(参考訳): LongSplatは、不規則なカメラの動き、未知のカメラポーズ、拡張的なシーンを特徴とする、カジュアルにキャプチャーされたロングビデオからの新規ビュー合成(NVS)における重要な課題に対処している。
現在の手法は、しばしばポーズドリフト、不正確な幾何学的初期化、厳しいメモリ制限に悩まされる。
これらの問題に対処するため,(1)カメラポーズと3Dガウスアンを同時に最適化し,局所的な最小化を回避し,大域的整合性を確保するための漸進的な共同最適化,(2)学習した3D先行情報を活用するロバストなポス推定モジュール,(3)高密度な点雲を空間密度に基づいてアンカーに変換する効率的なオクターアンカー形成機構などが特徴とする,頑健な3Dガウス的スプレイティングフレームワークであるLongSplatを紹介した。
挑戦的なベンチマークに関する大規模な実験は、LongSplatが最先端の結果を達成し、レンダリング品質、精度、計算効率を以前のアプローチと比べて大幅に改善していることを示している。
プロジェクトページ: https://linjohns.github.io/longsplat/
関連論文リスト
- RobustSplat: Decoupling Densification and Dynamics for Transient-Free 3DGS [79.15416002879239]
3D Gaussian Splattingは、ノベルビュー合成と3Dモデリングにおけるリアルタイム、フォトリアリスティックレンダリングにおいて大きな注目を集めている。
既存の手法は、過渡的なオブジェクトに影響されたシーンを正確にモデル化するのに苦労し、描画された画像のアーティファクトに繋がる。
2つの重要な設計に基づく堅牢なソリューションであるRobustSplatを提案する。
論文 参考訳(メタデータ) (2025-06-03T11:13:48Z) - AnySplat: Feed-forward 3D Gaussian Splatting from Unconstrained Views [57.13066710710485]
AnySplatは、未校正画像コレクションから新しいビューを合成するためのフィードフォワードネットワークである。
単一のフォワードパスは、シーン幾何学と外観の両方をコードする3Dガウスプリミティブのセットを生成する。
広範囲なゼロショット評価では、AnySplatはスパースと高密度の両方のビューシナリオにおいて、ポーズを意識するベースラインの品質にマッチする。
論文 参考訳(メタデータ) (2025-05-29T17:49:56Z) - Towards Better Robustness: Pose-Free 3D Gaussian Splatting for Arbitrarily Long Videos [24.959777640700178]
3D Gaussian Splatting (3DGS) はその効率性と高忠実性レンダリングのために強力な表現として登場した。
我々は、カメラのポーズを段階的に推定し、3DGSを任意に長いビデオ入力に最適化する頑健なフレームワークであるRob-GSを提案する。
論文 参考訳(メタデータ) (2025-01-25T06:02:20Z) - Look Gauss, No Pose: Novel View Synthesis using Gaussian Splatting without Accurate Pose Initialization [11.418632671254564]
3D Gaussian Splattingは、一連の入力画像から高速で正確なノベルビュー合成のための強力なツールとして登場した。
本稿では, 外部カメラパラメータを測光残差に対して最適化することにより, 3次元ガウス散乱フレームワークの拡張を提案する。
シミュレーション環境を通して実世界のシーンと複雑な軌道について結果を示す。
論文 参考訳(メタデータ) (2024-10-11T12:01:15Z) - SpotlessSplats: Ignoring Distractors in 3D Gaussian Splatting [44.42317312908314]
3D Gaussian Splatting (3DGS)は、3D再構成のための有望な技術であり、効率的なトレーニングとレンダリング速度を提供する。
現在の手法では、3DGSのビュー間の一貫性の仮定を満たすために、高度に制御された環境が必要である。
SpotLessSplatsは、トレーニング済みと汎用の機能と頑健な最適化を併用して、過渡的障害を効果的に無視するアプローチである。
論文 参考訳(メタデータ) (2024-06-28T17:07:11Z) - A Construct-Optimize Approach to Sparse View Synthesis without Camera Pose [44.13819148680788]
カメラポーズを伴わないスパースビュー合成のための新しい構成と最適化手法を開発した。
具体的には、単分子深度と画素を3次元の世界に投影することで、解を構築する。
タンク・アンド・テンプル・アンド・スタティック・ハイクスのデータセットに3つの広い範囲のビューで結果を示す。
論文 参考訳(メタデータ) (2024-05-06T17:36:44Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。