論文の概要: PlückeRF: A Line-based 3D Representation for Few-view Reconstruction
- arxiv url: http://arxiv.org/abs/2506.03713v1
- Date: Wed, 04 Jun 2025 08:45:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.240613
- Title: PlückeRF: A Line-based 3D Representation for Few-view Reconstruction
- Title(参考訳): PlückeRF:Few-view Representationのためのラインベース3次元表現
- Authors: Sam Bahrami, Dylan Campbell,
- Abstract要約: マルチビュー情報をより効果的に活用する数ビュー再構成モデルを提案する。
提案手法では,入力ビューから3次元表現と画素線を接続するシンプルな機構を導入する。
等価な三面体表現による再構成品質の向上を実証する。
- 参考スコア(独自算出の注目度): 14.344029183977046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feed-forward 3D reconstruction methods aim to predict the 3D structure of a scene directly from input images, providing a faster alternative to per-scene optimization approaches. Significant progress has been made in single-view and few-view reconstruction using learned priors that infer object shape and appearance, even for unobserved regions. However, there is substantial potential to enhance these methods by better leveraging information from multiple views when available. To address this, we propose a few-view reconstruction model that more effectively harnesses multi-view information. Our approach introduces a simple mechanism that connects the 3D representation with pixel rays from the input views, allowing for preferential sharing of information between nearby 3D locations and between 3D locations and nearby pixel rays. We achieve this by defining the 3D representation as a set of structured, feature-augmented lines; the Pl\"uckeRF representation. Using this representation, we demonstrate improvements in reconstruction quality over the equivalent triplane representation and state-of-the-art feedforward reconstruction methods.
- Abstract(参考訳): フィードフォワード3D再構成手法は、入力画像から直接シーンの3D構造を予測することを目的としており、シーンごとの最適化手法よりも高速な代替手段を提供する。
未観測領域においても,物体の形状や外観を推定する学習先行情報を用いて,単一視点と少数視点の再構成を行った。
しかし、利用可能な複数のビューからの情報をより活用することで、これらの手法を強化する可能性はかなりある。
そこで本研究では,多視点情報をより効果的に活用する数ビュー再構成モデルを提案する。
提案手法では, 入力ビューから3次元表現と画素線を接続するシンプルな機構を導入し, 近接する3次元位置と近接する3次元位置と画素線との情報共有を優先的に行う。
我々は、3D表現を構造化された特徴拡張された線、Pl\"uckeRF表現の集合として定義することでこれを実現する。
この表現を用いて、等価な三面体表現と最先端のフィードフォワード再構成法による再構成品質の向上を示す。
関連論文リスト
- Fast3R: Towards 3D Reconstruction of 1000+ Images in One Forward Pass [68.78222900840132]
我々は,DUSt3Rに並列に複数のビューを処理することで,効率よくスケーラブルな3D再構成を実現する新しい多視点一般化であるFast3Rを提案する。
Fast3Rは最先端のパフォーマンスを示し、推論速度とエラーの蓄積が大幅に改善された。
論文 参考訳(メタデータ) (2025-01-23T18:59:55Z) - CATSplat: Context-Aware Transformer with Spatial Guidance for Generalizable 3D Gaussian Splatting from A Single-View Image [18.445769892372528]
単視点3Dシーン再構成のための新しい一般化可能なトランスフォーマーベースのフレームワークであるCATSplatを紹介する。
シーン固有のコンテキストの詳細をテキスト埋め込みからクロスアテンションに組み込むことで、コンテキスト認識の再構築の道を開く。
大規模データセットを用いた実験により, 単視点3次元シーン再構成におけるCATSplatの最先端性能が実証された。
論文 参考訳(メタデータ) (2024-12-17T13:32:04Z) - MaRINeR: Enhancing Novel Views by Matching Rendered Images with Nearby References [49.71130133080821]
MaRINeRは、近くのマッピング画像の情報を活用して、ターゲット視点のレンダリングを改善する方法である。
暗黙のシーン表現と暗黙のシーン表現の両方から、定量的な指標と定性的な例のレンダリングの改善を示す。
論文 参考訳(メタデータ) (2024-07-18T17:50:03Z) - Part123: Part-aware 3D Reconstruction from a Single-view Image [54.589723979757515]
Part123は、一視点画像から部分認識された3D再構成のための新しいフレームワークである。
ニューラルレンダリングフレームワークにコントラスト学習を導入し、部分認識機能空間を学習する。
クラスタリングに基づくアルゴリズムも開発され、再構成されたモデルから3次元部分分割結果を自動的に導出する。
論文 参考訳(メタデータ) (2024-05-27T07:10:21Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - FIRe: Fast Inverse Rendering using Directional and Signed Distance
Functions [97.5540646069663]
指向性距離関数(DDF)と呼ばれる新しいニューラルシーン表現を導入する。
DDFは単位球上で定義され、任意の方向に沿って表面までの距離を予測する。
提案手法はDDFに基づいて,提案した深度マップから3次元形状を再構成する高速アルゴリズム (FIRe) を提案する。
論文 参考訳(メタデータ) (2022-03-30T13:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。