論文の概要: Dense Scene Reconstruction from Light-Field Images Affected by Rolling Shutter
- arxiv url: http://arxiv.org/abs/2412.03518v1
- Date: Wed, 04 Dec 2024 17:59:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:07:53.195671
- Title: Dense Scene Reconstruction from Light-Field Images Affected by Rolling Shutter
- Title(参考訳): 転がりシャッターによる光ファイバー画像からの高密度シーン再構成
- Authors: Hermes McGriff, Renato Martins, Nicolas Andreff, Cedric Demonceaux,
- Abstract要約: 本稿では,2次元ガウススプラッティングをベースとした2段階の手法を提案し,点雲の定式化による「レンダリングと比較」の戦略を提案する。
第1段階では、サブアパーチャ画像のサブセットを用いて、シーンターゲット形状に関連するRS3D形状を動きまで推定する。
第2段階では、許容カメラ動作を推定して3次元形状の無知を算出する。
- 参考スコア(独自算出の注目度): 1.856181262236876
- License:
- Abstract: This paper presents a dense depth estimation approach from light-field (LF) images that is able to compensate for strong rolling shutter (RS) effects. Our method estimates RS compensated views and dense RS compensated disparity maps. We present a two-stage method based on a 2D Gaussians Splatting that allows for a ``render and compare" strategy with a point cloud formulation. In the first stage, a subset of sub-aperture images is used to estimate an RS agnostic 3D shape that is related to the scene target shape ``up to a motion". In the second stage, the deformation of the 3D shape is computed by estimating an admissible camera motion. We demonstrate the effectiveness and advantages of this approach through several experiments conducted for different scenes and types of motions. Due to lack of suitable datasets for evaluation, we also present a new carefully designed synthetic dataset of RS LF images. The source code, trained models and dataset will be made publicly available at: https://github.com/ICB-Vision-AI/DenseRSLF
- Abstract(参考訳): 本稿では,強いローリングシャッター(RS)効果を補償できる光場(LF)画像からの深度推定手法を提案する。
提案手法は,RS補償ビューと高密度RS補償不均等写像を推定する。
本稿では,2次元ガウシアン・スプティングに基づく2段階の手法を提案する。この手法は,2次元ガウシアン・スプティングを用いて,「レンダリングと比較」の戦略と点雲の定式化を可能にする。第1段階では,シーン対象形状の「動き」に関連するRS非依存の3次元形状を推定するために,サブ開口画像のサブセットを用いる。
第2段階では、許容カメラ動作を推定して3次元形状の変形を算出する。
本手法の有効性とメリットを,様々な場面や動作に対して行ったいくつかの実験を通じて実証する。
また,評価に適したデータセットが欠如しているため,慎重に設計したRS LF画像の合成データセットも提示する。
ソースコード、トレーニングされたモデル、データセットは、https://github.com/ICB-Vision-AI/DenseRSLFで公開されます。
関連論文リスト
- No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Towards Human-Level 3D Relative Pose Estimation: Generalizable, Training-Free, with Single Reference [62.99706119370521]
人間は、単一のクエリ参照イメージペアのみを与えられたラベル/トレーニングなしで、目に見えないオブジェクトの相対的なポーズを容易に推論することができる。
そこで,本研究では,RGB-D参照から2.5D形状のRGB-D参照,オフザシェルフ微分可能なRGB-D参照,DINOv2のような事前学習モデルからのセマンティックキューを用いた3D一般化可能な相対ポーズ推定手法を提案する。
論文 参考訳(メタデータ) (2024-06-26T16:01:10Z) - DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - Joint 3D Shape and Motion Estimation from Rolling Shutter Light-Field
Images [2.0277446818410994]
本研究では,ローリングシャッターセンサを備えた光界カメラで撮影した1枚の画像からシーンを3次元再構成する手法を提案する。
本手法は、光場に存在する3次元情報キューと、ローリングシャッター効果によって提供される動き情報を利用する。
本稿では,このセンサの撮像プロセスの汎用モデルと再投射誤差を最小化する2段階アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-02T15:08:18Z) - Differentiable Rendering for Pose Estimation in Proximity Operations [4.282159812965446]
微分レンダリングは、レンダリングパラメータに関する画像レンダリング関数の微分を計算することを目的としている。
本稿では,6-DoFポーズ推定のための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-24T06:12:16Z) - Camera Distortion-aware 3D Human Pose Estimation in Video with
Optimization-based Meta-Learning [23.200130129530653]
歪みのないデータセットでトレーニングされた既存の3次元ポーズ推定アルゴリズムは、特定のカメラ歪みのある新しいシナリオに適用した場合、パフォーマンス低下を被る。
本研究では, 歪み環境に迅速に適応できる簡易かつ効果的な3次元ポーズ推定モデルを提案する。
論文 参考訳(メタデータ) (2021-11-30T01:35:04Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Indoor Layout Estimation by 2D LiDAR and Camera Fusion [3.2387553628943535]
本稿では,画像列とLiDARデータセットの融合による屋内レイアウト推定と再構築のためのアルゴリズムを提案する。
提案システムでは,2次元LiDAR情報とインテンシティ画像の両方を移動プラットフォームで収集する。
論文 参考訳(メタデータ) (2020-01-15T16:43:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。