論文の概要: Baseline and Triangulation Geometry in a Standard Plenoptic Camera
- arxiv url: http://arxiv.org/abs/2010.04638v2
- Date: Wed, 20 Jan 2021 12:02:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 06:35:00.554573
- Title: Baseline and Triangulation Geometry in a Standard Plenoptic Camera
- Title(参考訳): プレンオプティクス標準カメラのベースラインと三角測量幾何学
- Authors: Christopher Hahne, Amar Aggoun, Vladan Velisavljevic, Susanne Fiebig,
Matthias Pesch
- Abstract要約: レンズカメラに三角測量を適用可能な幾何学的光場モデルを提案する。
提案手法から推定した距離は,カメラの前に設置した実物の距離と一致している。
- 参考スコア(独自算出の注目度): 6.719751155411075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we demonstrate light field triangulation to determine depth
distances and baselines in a plenoptic camera. Advances in micro lenses and
image sensors have enabled plenoptic cameras to capture a scene from different
viewpoints with sufficient spatial resolution. While object distances can be
inferred from disparities in a stereo viewpoint pair using triangulation, this
concept remains ambiguous when applied in the case of plenoptic cameras. We
present a geometrical light field model allowing the triangulation to be
applied to a plenoptic camera in order to predict object distances or specify
baselines as desired. It is shown that distance estimates from our novel method
match those of real objects placed in front of the camera. Additional benchmark
tests with an optical design software further validate the model's accuracy
with deviations of less than +-0.33 % for several main lens types and focus
settings. A variety of applications in the automotive and robotics field can
benefit from this estimation model.
- Abstract(参考訳): 本稿では,plenopticカメラにおける深度距離とベースラインを決定するために,光場の三角測量を行う。
マイクロレンズとイメージセンサーの進歩により、カメラは十分な空間解像度で異なる視点からシーンを捉えられるようになった。
対象距離は三角測量を用いてステレオ視点対の差から推測できるが、プレン光学カメラの場合、この概念はあいまいなままである。
対象距離を予測したり、必要に応じてベースラインを指定するために、三角測量をプレンオプティカルカメラに適用できる幾何学的光場モデルを提案する。
提案手法から推定した距離は,カメラの前に設置した実物の距離と一致している。
光設計ソフトウェアによる追加のベンチマークテストは、いくつかの主レンズタイプとフォーカス設定で+-0.33 %未満の偏差でモデルの精度をさらに検証する。
自動車とロボット分野の様々な応用がこの推定モデルから恩恵を受けることができる。
関連論文リスト
- Metric3Dv2: A Versatile Monocular Geometric Foundation Model for Zero-shot Metric Depth and Surface Normal Estimation [74.28509379811084]
Metric3D v2は、ゼロショット距離深さと1枚の画像からの表面正規推定のための幾何学的基礎モデルである。
距離深度推定と表面正規度推定の両方の解を提案する。
本手法は, ランダムに収集したインターネット画像上での計測3次元構造の正確な復元を可能にする。
論文 参考訳(メタデータ) (2024-03-22T02:30:46Z) - Can you see me now? Blind spot estimation for autonomous vehicles using
scenario-based simulation with random reference sensors [5.910402196056647]
モンテカルロをベースとした参照センサシミュレーションにより,被写体サイズを被写体量として正確に推定することができる。
目的シナリオの高忠実度シミュレーションからLiDARセンサやカメラ深度画像からの点雲を利用して,正確な可視性推定を行う。
論文 参考訳(メタデータ) (2024-02-01T10:14:53Z) - Phase Guided Light Field for Spatial-Depth High Resolution 3D Imaging [36.208109063579066]
3Dイメージングでは、光界カメラは通常単発で、空間解像度と深度精度の低下に悩まされる。
そこで本研究では,オフザシェルフ光場カメラの空間分解能と深度を両立させる位相誘導光場アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:08:15Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Ray Tracing-Guided Design of Plenoptic Cameras [1.1421942894219896]
レンズカメラの設計には、2つの異なる光学系の組み合わせが必要である。
そこで本稿では,制約の組によって残される開口,センサ,マイクロレンズの配列パラメータを計算する手法を提案する。
我々のレイトレーシングに基づくアプローチは、一般的に用いられるパラ軸近似で生成されたペンダントよりも優れた結果をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-03-09T11:57:00Z) - Facial Depth and Normal Estimation using Single Dual-Pixel Camera [81.02680586859105]
DP指向のDepth/Normalネットワークを導入し,3次元顔形状を再構成する。
これは、メートル法スケールでの深度マップと表面正規を含む、対応する地上3次元モデルを含んでいる。
近年のDPベース深度/正規推定法で最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-11-25T05:59:27Z) - 3D-Aware Ellipse Prediction for Object-Based Camera Pose Estimation [3.103806775802078]
視聴条件に頑健な粗いカメラポーズ計算法を提案する。
観察条件に関係なく、物体を確実に検出する深層学習技術を活用する。
論文 参考訳(メタデータ) (2021-05-24T18:40:18Z) - LUCES: A Dataset for Near-Field Point Light Source Photometric Stereo [30.31403197697561]
LUCESは, 様々な素材の14個のオブジェクトからなる, 近距離Ld点光のための最初の実世界のデータセットである。
52個のLEDを計る装置は、カメラから10から30cm離れた位置にある各物体に点灯するように設計されている。
提案するデータセットにおける最新の近接場測光ステレオアルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-04-27T12:30:42Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。