論文の概要: LiFMCR: Dataset and Benchmark for Light Field Multi-Camera Registration
- arxiv url: http://arxiv.org/abs/2510.13729v1
- Date: Wed, 15 Oct 2025 16:32:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.763323
- Title: LiFMCR: Dataset and Benchmark for Light Field Multi-Camera Registration
- Title(参考訳): LiFMCR:光フィールドマルチカメラ登録のためのデータセットとベンチマーク
- Authors: Aymeric Fleith, Julian Zirbel, Daniel Cremers, Niclas Zeller,
- Abstract要約: LiFMCRは2つの高解像度のレイトリクスRFMC32カメラからの同期画像シーケンスを提供する。
このユニークな組み合わせは、マルチカメラ光場登録法の厳密な評価を可能にする。
実験は、信頼性の高い多視点光場処理をサポートしながら、地上の真実と強い整合性を示す。
- 参考スコア(独自算出の注目度): 44.646679985691286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present LiFMCR, a novel dataset for the registration of multiple micro lens array (MLA)-based light field cameras. While existing light field datasets are limited to single-camera setups and typically lack external ground truth, LiFMCR provides synchronized image sequences from two high-resolution Raytrix R32 plenoptic cameras, together with high-precision 6-degrees of freedom (DoF) poses recorded by a Vicon motion capture system. This unique combination enables rigorous evaluation of multi-camera light field registration methods. As a baseline, we provide two complementary registration approaches: a robust 3D transformation estimation via a RANSAC-based method using cross-view point clouds, and a plenoptic PnP algorithm estimating extrinsic 6-DoF poses from single light field images. Both explicitly integrate the plenoptic camera model, enabling accurate and scalable multi-camera registration. Experiments show strong alignment with the ground truth, supporting reliable multi-view light field processing. Project page: https://lifmcr.github.io/
- Abstract(参考訳): 我々は、マルチマイクロレンズアレイ(MLA)ベースの光フィールドカメラの登録のための新しいデータセットLiFMCRを提案する。
既存の光フィールドデータセットは単一カメラの設定に限られており、通常は外界の真実を欠いているが、LiFMCRは2つの高解像度のレイトリクスR32カメラからの同期画像シーケンスと、Viconモーションキャプチャシステムによって記録された高精度6自由度(DoF)のポーズを提供する。
このユニークな組み合わせは、マルチカメラ光場登録法の厳密な評価を可能にする。
ベースラインとして, RANSAC を用いた3次元変換によるロバストな3次元変換推定法と, 単光界画像からの外部6-DoFのポーズを推定するPnPアルゴリズムの2つの相補的な登録手法を提案する。
どちらも光ファイバーカメラモデルを明示的に統合し、正確でスケーラブルなマルチカメラ登録を可能にする。
実験は、信頼性の高い多視点光場処理をサポートしながら、地上の真実と強い整合性を示す。
プロジェクトページ: https://lifmcr.github.io/
関連論文リスト
- Single-Scanline Relative Pose Estimation for Rolling Shutter Cameras [56.39904484784127]
本稿では,ラインプロジェクションの交差点と1枚の走査線を用いて,ローリングシャッターカメラ間の相対的なポーズを推定する手法を提案する。
あるいは、単一の画像内でスキャニングラインを選択することができ、ローリングシャッターカメラのスキャニングラインに対するシングルビュー相対ポーズ推定を可能にする。
論文 参考訳(メタデータ) (2025-06-27T10:00:21Z) - LiFCal: Online Light Field Camera Calibration via Bundle Adjustment [38.2887165481751]
LiFCalは、MLAベースの光フィールドカメラのためのオンラインキャリブレーションパイプラインである。
正確な校正対象のない移動カメラシーケンスからモデルパラメータを正確に決定する。
ターゲットのないシーンに適用可能で、完全な継続的パイプラインでオンラインに実装されている。
論文 参考訳(メタデータ) (2024-08-21T15:04:49Z) - MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - MC-NeRF: Multi-Camera Neural Radiance Fields for Multi-Camera Image Acquisition Systems [22.494866649536018]
ニューラル・ラジアンス・フィールド(NeRF)は3次元シーン表現にマルチビュー・イメージを使用し、顕著な性能を示す。
以前のNeRFベースの手法のほとんどは、ユニークなカメラを前提としており、マルチカメラのシナリオをめったに考慮していない。
提案するMC-NeRFは,内在パラメータと外在パラメータの両方を,NeRFと併用して共同最適化する手法である。
論文 参考訳(メタデータ) (2023-09-14T16:40:44Z) - OAFuser: Towards Omni-Aperture Fusion for Light Field Semantic Segmentation [48.828453331724965]
我々は,Omni-Aperture Fusion Model (OAFuser) を提案する。
提案したOAFuserは,すべての評価指標から4つのUrbanLFデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-28T14:43:27Z) - Gait Recognition in Large-scale Free Environment via Single LiDAR [35.684257181154905]
深度を捉えるLiDARの能力は、ロボットの知覚にとって重要な要素であり、現実世界の歩行認識の可能性を秘めている。
本稿では,頑健な歩行認識のための階層型多表現特徴相互作用ネットワーク(HMRNet)を提案する。
LiDARに基づく歩行認識研究を容易にするため,大規模かつ制約のない歩行データセットであるFreeGaitを紹介した。
論文 参考訳(メタデータ) (2022-11-22T16:05:58Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z) - A Bayesian Filter for Multi-view 3D Multi-object Tracking with Occlusion
Handling [2.824395407508717]
提案アルゴリズムは、カメラ全体の検出総数において線形複雑である。
3次元世界フレームで動作し、オブジェクトの3次元軌道推定を提供する。
提案アルゴリズムは最新のWILDTRACKSデータセットで評価され,非常に混み合った場面で機能することが実証された。
論文 参考訳(メタデータ) (2020-01-13T09:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。