論文の概要: 3DOF+Quantization: 3DGS quantization for large scenes with limited Degrees of Freedom
- arxiv url: http://arxiv.org/abs/2509.06400v1
- Date: Mon, 08 Sep 2025 07:44:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.003698
- Title: 3DOF+Quantization: 3DGS quantization for large scenes with limited Degrees of Freedom
- Title(参考訳): 3DOF+量子化:自由度に制限のある大シーンのための3DGS量子化
- Authors: Matthieu Gendrin, Stéphane Pateux, Théo Ladune,
- Abstract要約: 3D Gaussian Splatting (3DGS)は、3Dシーンの再構築において大きなブレークスルーとなる。
画素の投影誤差に対する位置誤差の影響について検討した。
球面座標に基づく新しい量子化手法を提案する。
- 参考スコア(独自算出の注目度): 1.0399530974344653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) is a major breakthrough in 3D scene reconstruction. With a number of views of a given object or scene, the algorithm trains a model composed of 3D gaussians, which enables the production of novel views from arbitrary points of view. This freedom of movement is referred to as 6DoF for 6 degrees of freedom: a view is produced for any position (3 degrees), orientation of camera (3 other degrees). On large scenes, though, the input views are acquired from a limited zone in space, and the reconstruction is valuable for novel views from the same zone, even if the scene itself is almost unlimited in size. We refer to this particular case as 3DoF+, meaning that the 3 degrees of freedom of camera position are limited to small offsets around the central position. Considering the problem of coordinate quantization, the impact of position error on the projection error in pixels is studied. It is shown that the projection error is proportional to the squared inverse distance of the point being projected. Consequently, a new quantization scheme based on spherical coordinates is proposed. Rate-distortion performance of the proposed method are illustrated on the well-known Garden scene.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、3Dシーンの再構築において大きなブレークスルーとなる。
与えられたオブジェクトやシーンの多くのビューで、アルゴリズムは3Dガウスアンで構成されるモデルを訓練し、任意の視点から新しいビューを作成できる。
この動きの自由は6自由度に対して6DoFと呼ばれ、任意の位置(3度)、カメラの向き(3度)に対してビューが生成される。
しかし、大きなシーンでは、入力ビューは空間の限られたゾーンから取得され、シーン自体がほぼ無制限であっても、同じゾーンからの新しいビューには、再構成が有用である。
このケースを3DoF+と呼び、カメラ位置の自由度は中心位置付近の小さなオフセットに限られている。
座標量子化の問題を考慮して,画素の投影誤差に対する位置誤差の影響について検討した。
射影誤差は射影される点の2乗逆距離に比例する。
そこで,球面座標に基づく新しい量子化手法を提案する。
提案手法の速度歪み性能をよく知られたガーデンシーンに示す。
関連論文リスト
- You Need a Transition Plane: Bridging Continuous Panoramic 3D Reconstruction with Perspective Gaussian Splatting [57.44295803750027]
本稿では,連続的なパノラマ3次元シーンをガウススプラッティングで橋渡しするための新しいフレームワークTPGSを提案する。
具体的には、個々の立方体面内で3Dガウスを最適化し、縫合されたパノラマ空間でそれらを微調整する。
屋内、屋外、エゴセントリック、ローミングのベンチマークデータセットの実験は、我々のアプローチが既存の最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2025-04-12T03:42:50Z) - UniK3D: Universal Camera Monocular 3D Estimation [62.06785782635153]
カメラをモデル化可能なモノクル3D推定法として,UniK3Dを提案する。
本手法では, 球面3次元表現を導入し, カメラとシーンの形状をよりよく切り離すことができる。
13の多様なデータセットに対する包括的なゼロショット評価は、3D、ディープ、カメラメトリクスにわたるUniK3Dの最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-20T17:49:23Z) - Graph-Guided Scene Reconstruction from Images with 3D Gaussian Splatting [5.8452477457633485]
既存の手法には、精密なカメラポーズを入力に必要としたり、監督のために密集した視点を必要とするなど、様々な制限がある。
グラフ誘導型3Dシーン再構築フレームワークGraphGSを提案する。
画像から高忠実度な3D再構成を実現し,複数のデータセットにわたる定量的,定性的な評価により,最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-02-24T17:59:08Z) - No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - GLACE: Global Local Accelerated Coordinate Encoding [66.87005863868181]
シーン座標回帰法は小規模なシーンでは有効であるが、大規模シーンでは重大な課題に直面している。
本研究では,事前学習したグローバルおよびローカルのエンコーディングを統合したGLACEを提案する。
提案手法は,低マップサイズモデルを用いて,大規模シーンにおける最先端結果を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:59:50Z) - Mitigating Perspective Distortion-induced Shape Ambiguity in Image Crops [17.074716363691294]
単一の画像から3Dを予測するためのモデルは、しばしば関心の対象の周りの作物と連動し、カメラの視野内の物体の位置を無視する。
内在性を考慮した位置推定法を提案する。
ベンチマーク(KPE)は、画像とカメラの形状における作物の位置に関する情報を組み込んだベンチマークである。
NYUの深度予測、KITTIとnuScenesの3Dオブジェクト検出、ARCTICの3Dオブジェクトの予測という3つの人気のある3D画像ベンチマークの実験は、KPEの利点を示している。
論文 参考訳(メタデータ) (2023-12-11T18:28:55Z) - BerfScene: Bev-conditioned Equivariant Radiance Fields for Infinite 3D
Scene Generation [96.58789785954409]
本研究では,同変放射場と鳥眼視図のガイダンスを組み込んだ実用的で効率的な3次元表現を提案する。
局所的なシーンを合成し、スムーズな一貫性で縫い合わせることで、大規模で無限スケールの3Dシーンを作ります。
論文 参考訳(メタデータ) (2023-12-04T18:56:10Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。