論文の概要: AnySplat: Feed-forward 3D Gaussian Splatting from Unconstrained Views
- arxiv url: http://arxiv.org/abs/2505.23716v1
- Date: Thu, 29 May 2025 17:49:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:08.054547
- Title: AnySplat: Feed-forward 3D Gaussian Splatting from Unconstrained Views
- Title(参考訳): AnySplat: 制約のない視点からのフィードフォワード3Dガウシアンスプレイティング
- Authors: Lihan Jiang, Yucheng Mao, Linning Xu, Tao Lu, Kerui Ren, Yichen Jin, Xudong Xu, Mulin Yu, Jiangmiao Pang, Feng Zhao, Dahua Lin, Bo Dai,
- Abstract要約: AnySplatは、未校正画像コレクションから新しいビューを合成するためのフィードフォワードネットワークである。
単一のフォワードパスは、シーン幾何学と外観の両方をコードする3Dガウスプリミティブのセットを生成する。
広範囲なゼロショット評価では、AnySplatはスパースと高密度の両方のビューシナリオにおいて、ポーズを意識するベースラインの品質にマッチする。
- 参考スコア(独自算出の注目度): 57.13066710710485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce AnySplat, a feed forward network for novel view synthesis from uncalibrated image collections. In contrast to traditional neural rendering pipelines that demand known camera poses and per scene optimization, or recent feed forward methods that buckle under the computational weight of dense views, our model predicts everything in one shot. A single forward pass yields a set of 3D Gaussian primitives encoding both scene geometry and appearance, and the corresponding camera intrinsics and extrinsics for each input image. This unified design scales effortlessly to casually captured, multi view datasets without any pose annotations. In extensive zero shot evaluations, AnySplat matches the quality of pose aware baselines in both sparse and dense view scenarios while surpassing existing pose free approaches. Moreover, it greatly reduce rendering latency compared to optimization based neural fields, bringing real time novel view synthesis within reach for unconstrained capture settings.Project page: https://city-super.github.io/anysplat/
- Abstract(参考訳): 我々は、未校正画像コレクションから新しいビューを合成するためのフィードフォワードネットワークであるAnySplatを紹介する。
既知のカメラのポーズやシーンごとの最適化を必要とする従来のニューラルレンダリングパイプラインや、密度の高いビューの計算重量で座屈する最近のフィードフォワード手法とは対照的に、我々のモデルは1ショットで全てを予測する。
シングルフォワードパスは、シーン形状と外観の両方を符号化した3Dガウスプリミティブのセットと、各入力画像に対する対応するカメラ内在性と外在物を生成する。
この統一された設計は、ポーズアノテーションを使わずに、カジュアルにキャプチャされたマルチビューデータセットに努力的にスケールする。
広範囲なゼロショット評価では、AnySplatは、スパースとシークエンスの両方のビューシナリオにおけるポーズを意識したベースラインの品質と、既存のポーズフリーアプローチを超越している。
さらに、最適化ベースのニューラルネットワークと比較してレンダリングレイテンシを大幅に削減し、制約のないキャプチャ設定のリーチ内でリアルタイムの新規ビュー合成を実現する。
関連論文リスト
- OmniSplat: Taming Feed-Forward 3D Gaussian Splatting for Omnidirectional Images with Editable Capabilities [44.255563018074575]
全方位画像のための訓練不要な高速フィードフォワード3DGS生成フレームワークであるOmniSplatを提案する。
我々はYin-Yangグリッドを採用し、それに基づいて画像を分解し、全方位画像と視点画像の領域ギャップを低減する。
論文 参考訳(メタデータ) (2024-12-21T12:33:08Z) - No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - FreeSplat: Generalizable 3D Gaussian Splatting Towards Free-View Synthesis of Indoor Scenes [50.534213038479926]
FreeSplatは、長いシーケンス入力から自由視点合成まで、幾何学的に一貫した3Dシーンを再構築することができる。
ビュー数に関係なく、広いビュー範囲にわたる堅牢なビュー合成を実現するための、シンプルで効果的なフリービュートレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-05-28T08:40:14Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - COLMAP-Free 3D Gaussian Splatting [88.420322646756]
本稿では,SfM前処理を使わずに新しいビュー合成を実現する手法を提案する。
入力フレームを逐次的に処理し、一度に1つの入力フレームを取ることで3Dガウスを段階的に成長させる。
提案手法は, 映像合成とカメラポーズ推定において, 大きな動き変化下での従来手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-12-12T18:39:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。