論文の概要: Light-Field Dataset for Disparity Based Depth Estimation
- arxiv url: http://arxiv.org/abs/2511.05866v1
- Date: Sat, 08 Nov 2025 05:39:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.624816
- Title: Light-Field Dataset for Disparity Based Depth Estimation
- Title(参考訳): 分散度に基づく深度推定のための光フィールドデータセット
- Authors: Suresh Nehra, Aupendu Kar, Jayanta Mukhopadhyay, Prabir Kumar Biswas,
- Abstract要約: Light Field (LF) カメラは、メインレンズとセンサーの間に配置された2次元のマイクロレンズからなる。
これにより、画像センサは、シーンポイントの空間情報と角分解能の両方をキャプチャすることができる。
角情報と空間情報のトレードオフは非常に重要であり、カメラの焦点位置に依存する。
- 参考スコア(独自算出の注目度): 8.101033337356684
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A Light Field (LF) camera consists of an additional two-dimensional array of micro-lenses placed between the main lens and sensor, compared to a conventional camera. The sensor pixels under each micro-lens receive light from a sub-aperture of the main lens. This enables the image sensor to capture both spatial information and the angular resolution of a scene point. This additional angular information is used to estimate the depth of a 3-D scene. The continuum of virtual viewpoints in light field data enables efficient depth estimation using Epipolar Line Images (EPIs) with robust occlusion handling. However, the trade-off between angular information and spatial information is very critical and depends on the focal position of the camera. To design, develop, implement, and test novel disparity-based light field depth estimation algorithms, the availability of suitable light field image datasets is essential. In this paper, a publicly available light field image dataset is introduced and thoroughly described. We have also demonstrated the effect of focal position on the disparity of a 3-D point as well as the shortcomings of the currently available light field dataset. The proposed dataset contains 285 light field images captured using a Lytro Illum LF camera and 13 synthetic LF images. The proposed dataset also comprises a synthetic dataset with similar disparity characteristics to those of a real light field camera. A real and synthetic stereo light field dataset is also created by using a mechanical gantry system and Blender. The dataset is available at https://github.com/aupendu/light-field-dataset.
- Abstract(参考訳): Light Field (LF) カメラは、従来のカメラと比較して、メインレンズとセンサーの間に2次元のマイクロレンズが配置されている。
各マイクロレンズの下のセンサー画素は、メインレンズのサブ開口から光を受け取る。
これにより、画像センサは、シーンポイントの空間情報と角分解能の両方をキャプチャすることができる。
この追加の角情報を用いて3次元シーンの深さを推定する。
光電場データにおける仮想視点の連続性により、強い閉塞処理を伴うエピポーラライン画像(EPIs)を用いた効率的な深度推定が可能となる。
しかし、角情報と空間情報のトレードオフは非常に重要であり、カメラの焦点位置に依存する。
新たな不均一性に基づく光深度推定アルゴリズムの設計,開発,実装,試験を行うためには,適切な光深度画像データセットの利用が不可欠である。
本稿では,公開光場画像データセットを導入し,概説する。
また,焦点位置が3次元点の不均一性および現在利用可能な光場データセットの欠点に及ぼす影響を実証した。
提案したデータセットは、Lytro Illum LFカメラで撮影した285個の光フィールド画像と、13個の合成LF画像を含む。
提案データセットは、実光界カメラと類似した相違特性を持つ合成データセットも含む。
メカニカルガントリーシステムとブレンダーを用いて、リアルで合成されたステレオ光場データセットも作成する。
データセットはhttps://github.com/aupendu/light-field-datasetで公開されている。
関連論文リスト
- 360 in the Wild: Dataset for Depth Prediction and View Synthesis [66.58513725342125]
大規模な360$circ$ビデオデータセットを野放しに導入する。
このデータセットはインターネットから慎重に取り除かれ、世界中で様々な場所から収集されている。
データセットを構成する25K画像のそれぞれに、それぞれのカメラのポーズと深さマップが提供される。
論文 参考訳(メタデータ) (2024-06-27T05:26:38Z) - OAFuser: Towards Omni-Aperture Fusion for Light Field Semantic Segmentation [48.828453331724965]
我々は,Omni-Aperture Fusion Model (OAFuser) を提案する。
提案したOAFuserは,すべての評価指標から4つのUrbanLFデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-28T14:43:27Z) - A CNN Based Approach for the Point-Light Photometric Stereo Problem [26.958763133729846]
本稿では、遠距離場光度ステレオにおける深部ニューラルネットワークの最近の改良を活用して、現実的な仮定を処理できるCNNベースのアプローチを提案する。
われわれのアプローチは、DiLiGenT実世界のデータセットの最先端よりも優れている。
近距離点光源PSデータに対する我々のアプローチの性能を測定するため、LUCESを「近距離点光のための最初の実世界のデータセット」として紹介する。
論文 参考訳(メタデータ) (2022-10-10T12:57:12Z) - LUCES: A Dataset for Near-Field Point Light Source Photometric Stereo [30.31403197697561]
LUCESは, 様々な素材の14個のオブジェクトからなる, 近距離Ld点光のための最初の実世界のデータセットである。
52個のLEDを計る装置は、カメラから10から30cm離れた位置にある各物体に点灯するように設計されている。
提案するデータセットにおける最新の近接場測光ステレオアルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-04-27T12:30:42Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Baseline and Triangulation Geometry in a Standard Plenoptic Camera [6.719751155411075]
レンズカメラに三角測量を適用可能な幾何学的光場モデルを提案する。
提案手法から推定した距離は,カメラの前に設置した実物の距離と一致している。
論文 参考訳(メタデータ) (2020-10-09T15:31:14Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。