論文の概要: Wid3R: Wide Field-of-View 3D Reconstruction via Camera Model Conditioning
- arxiv url: http://arxiv.org/abs/2602.05321v1
- Date: Thu, 05 Feb 2026 05:42:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.769966
- Title: Wid3R: Wide Field-of-View 3D Reconstruction via Camera Model Conditioning
- Title(参考訳): Wid3R:カメラモデルによる広視野3次元再構成
- Authors: Dongki Jung, Jaehoon Choi, Adil Qureshi, Somi Jeong, Dinesh Manocha, Suyong Yeon,
- Abstract要約: We present Wid3R, a feed-forward neural network for visual geometry reconstruction that support wide field-of-view camera model。
提案手法では, 球面高調波を用いた光線表現と, ネットワーク内の新しいカメラモデルトークンを活用し, 歪みを考慮した3次元再構成を実現する。
強いゼロショットロバスト性を示し、スタンフォード2D3Dで最大+77.33まで改善された。
- 参考スコア(独自算出の注目度): 46.85601730573671
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Wid3R, a feed-forward neural network for visual geometry reconstruction that supports wide field-of-view camera models. Prior methods typically assume that input images are rectified or captured with pinhole cameras, since both their architectures and training datasets are tailored to perspective images only. These assumptions limit their applicability in real-world scenarios that use fisheye or panoramic cameras and often require careful calibration and undistortion. In contrast, Wid3R is a generalizable multi-view 3D estimation method that can model wide field-of-view camera types. Our approach leverages a ray representation with spherical harmonics and a novel camera model token within the network, enabling distortion-aware 3D reconstruction. Furthermore, Wid3R is the first multi-view foundation model to support feed-forward 3D reconstruction directly from 360 imagery. It demonstrates strong zero-shot robustness and consistently outperforms prior methods, achieving improvements of up to +77.33 on Stanford2D3D.
- Abstract(参考訳): We present Wid3R, a feed-forward neural network for visual geometry reconstruction that support wide field-of-view camera model。
従来の手法では、入力画像はピンホールカメラで修正またはキャプチャされると考えられていた。
これらの仮定は、魚眼カメラやパノラマカメラを使用し、注意深い校正と歪曲を必要とする現実世界のシナリオに適用性を制限する。
対照的に、Wid3Rは広視野カメラのタイプをモデル化できる一般化可能なマルチビュー3D推定法である。
提案手法では, 球面高調波を用いた光線表現と, ネットワーク内の新しいカメラモデルトークンを活用し, 歪みを考慮した3次元再構成を実現する。
さらに、Wid3Rは360度画像から直接フィードフォワード3D再構成をサポートする最初の多視点基礎モデルである。
強いゼロショットロバスト性を示し、スタンフォード2D3Dで最大+77.33まで改善された。
関連論文リスト
- UniK3D: Universal Camera Monocular 3D Estimation [62.06785782635153]
カメラをモデル化可能なモノクル3D推定法として,UniK3Dを提案する。
本手法では, 球面3次元表現を導入し, カメラとシーンの形状をよりよく切り離すことができる。
13の多様なデータセットに対する包括的なゼロショット評価は、3D、ディープ、カメラメトリクスにわたるUniK3Dの最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-20T17:49:23Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - DUSt3R: Geometric 3D Vision Made Easy [8.471330244002564]
Dense and Unconstrained Stereo 3D Reconstruction of arbitrary image collections。
本定式化は単眼および両眼の再建症例を円滑に統一することを示す。
私たちの定式化はシーンの3Dモデルと深度情報を直接提供しますが、興味深いことに、シームレスに回復できます。
論文 参考訳(メタデータ) (2023-12-21T18:52:14Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。