論文の概要: Seam360GS: Seamless 360° Gaussian Splatting from Real-World Omnidirectional Images
- arxiv url: http://arxiv.org/abs/2508.20080v1
- Date: Wed, 27 Aug 2025 17:46:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.725764
- Title: Seam360GS: Seamless 360° Gaussian Splatting from Real-World Omnidirectional Images
- Title(参考訳): Seam360GS:実世界全方位画像からの360度ガウス撮影
- Authors: Changha Shin, Woong Oh Cho, Seon Joo Kim,
- Abstract要約: 両眼カメラモデルを3次元ガウススプラッティングパイプラインに組み込んだ新しいキャリブレーションフレームワークを提案する。
我々のアプローチは、双眼カメラが生み出す現実的な視覚的アーティファクトをシミュレートするだけでなく、シームレスに描画された360度画像の合成を可能にする。
- 参考スコア(独自算出の注目度): 22.213607618728705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 360-degree visual content is widely shared on platforms such as YouTube and plays a central role in virtual reality, robotics, and autonomous navigation. However, consumer-grade dual-fisheye systems consistently yield imperfect panoramas due to inherent lens separation and angular distortions. In this work, we introduce a novel calibration framework that incorporates a dual-fisheye camera model into the 3D Gaussian splatting pipeline. Our approach not only simulates the realistic visual artifacts produced by dual-fisheye cameras but also enables the synthesis of seamlessly rendered 360-degree images. By jointly optimizing 3D Gaussian parameters alongside calibration variables that emulate lens gaps and angular distortions, our framework transforms imperfect omnidirectional inputs into flawless novel view synthesis. Extensive evaluations on real-world datasets confirm that our method produces seamless renderings-even from imperfect images-and outperforms existing 360-degree rendering models.
- Abstract(参考訳): 360度のビジュアルコンテンツはYouTubeなどのプラットフォームで広く共有されており、仮想現実、ロボティクス、自律ナビゲーションにおいて中心的な役割を果たす。
しかし、コンシューマグレードのデュアルフィッシュアイシステムは、固有のレンズ分離と角歪みのために、常に不完全なパノラマを発生させる。
本研究では,2眼カメラモデルを3次元ガウススプラッティングパイプラインに組み込んだ新しいキャリブレーションフレームワークを提案する。
我々のアプローチは、双眼カメラが生み出す現実的な視覚的アーティファクトをシミュレートするだけでなく、シームレスに描画された360度画像の合成を可能にする。
レンズギャップと角歪みをエミュレートするキャリブレーション変数とともに3次元ガウスパラメータを共同最適化することにより、不完全な全方位入力を不完全な新規ビュー合成に変換する。
実世界のデータセットに対する大規模な評価では、不完全な画像からシームレスなレンダリングが生成され、既存の360度レンダリングモデルよりも優れています。
関連論文リスト
- DiffPortrait360: Consistent Portrait Diffusion for 360 View Synthesis [11.51144219543605]
完全一貫した360度ヘッドビューを生成する新しい手法を提案する。
連続的なビューシーケンスをトレーニングし、バックレファレンス画像を統合することにより、ロバストで局所的な連続的なビュー合成を実現する。
我々のモデルは、リアルタイムで自由視点レンダリングのための高品質なニューラルレイディアンスフィールド(NeRF)を作成するために使用することができる。
論文 参考訳(メタデータ) (2025-03-19T19:47:04Z) - IM360: Textured Mesh Reconstruction for Large-scale Indoor Mapping with 360$^\circ$ Cameras [53.53895891356167]
室内環境の3次元マッピングとレンダリングのための360ドルのカメラのための新しい3D再構成パイプラインを提案する。
我々のアプローチ(IM360)は全方位画像の広い視野を活用し、球面カメラモデルをSfMパイプラインのすべてのコアコンポーネントに統合する。
Matterport3DとStanford2D3Dデータセットから大規模屋内シーンのパイプラインを評価する。
論文 参考訳(メタデータ) (2025-02-18T05:15:19Z) - SC-OmniGS: Self-Calibrating Omnidirectional Gaussian Splatting [29.489453234466982]
SC-OmniGSは、360度画像を用いた高速かつ正確な放射野再構成のための新しい自己校正システムである。
実世界のデータの歪みを補正し,性能向上を図るために,一方向一方向カメラモデルを導入する。
論文 参考訳(メタデータ) (2025-02-07T08:06:30Z) - Splatter-360: Generalizable 360$^{\circ}$ Gaussian Splatting for Wide-baseline Panoramic Images [52.48351378615057]
textitSplatter-360は、ワイドベースラインパノラマ画像を扱うための、エンドツーエンドの汎用3DGSフレームワークである。
パノラマ画像に固有の歪みを緩和する3D対応複投影エンコーダを提案する。
これにより、堅牢な3D対応機能表現とリアルタイムレンダリングが可能になる。
論文 参考訳(メタデータ) (2024-12-09T06:58:31Z) - Hybrid bundle-adjusting 3D Gaussians for view consistent rendering with pose optimization [2.8990883469500286]
本稿では,ポーズ最適化によるビュー一貫性レンダリングを実現するハイブリッドなバンドル調整3Dガウスモデルを提案する。
このモデルは、画像ベースとニューラルな3D表現を共同で抽出し、前方のシーン内でビュー一貫性のある画像とカメラのポーズを同時に生成する。
論文 参考訳(メタデータ) (2024-10-17T07:13:00Z) - DreamScene360: Unconstrained Text-to-3D Scene Generation with Panoramic Gaussian Splatting [56.101576795566324]
テキストから3D 360$circ$のシーン生成パイプラインを提示する。
提案手法は, 2次元拡散モデルの生成力を利用して, 自己複製を促進する。
当社の手法は,360ドル(約3万2000円)の視野内で,グローバルに一貫した3Dシーンを提供する。
論文 参考訳(メタデータ) (2024-04-10T10:46:59Z) - Close-up View synthesis by Interpolating Optical Flow [17.800430382213428]
仮想視点は、深度情報や不明瞭なカメラパラメータが欠如していることから、仮想ナビゲーションにおける新しい技術として認識されている。
我々は,光学フローの比例による仮想視点を得るための双方向光フロー法を開発した。
光学フロー値の創発的な応用により、任意の角にレンズを張ることで、鮮明で視覚的忠実度が向上する。
論文 参考訳(メタデータ) (2023-07-12T04:40:00Z) - Moving in a 360 World: Synthesizing Panoramic Parallaxes from a Single
Panorama [13.60790015417166]
パララックス対応の新規パノラマビュー合成のための最初の手法であるOmniNeRF(OmniNeRF)を提案する。
仮想カメラの位置が異なる3次元世界と異なる2次元パノラマ座標の間を前後に投影することで、単一のRGB-Dパノラマを増大させることを提案する。
その結果、提案したOmniNeRFは、パララックス効果を示す新しいパノラマビューの説得力のあるレンダリングを実現する。
論文 参考訳(メタデータ) (2021-06-21T05:08:34Z) - Towards Realistic 3D Embedding via View Alignment [53.89445873577063]
本稿では,3次元モデルを2次元背景画像に現実的に,かつ自動的に埋め込み,新たな画像を構成する,革新的なビューアライメントGAN(VA-GAN)を提案する。
VA-GANはテクスチャジェネレータとディファレンシャルディスクリミネーターで構成され、相互接続され、エンドツーエンドのトレーニングが可能である。
論文 参考訳(メタデータ) (2020-07-14T14:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。