論文の概要: Baseline and Triangulation Geometry in a Standard Plenoptic Camera
- arxiv url: http://arxiv.org/abs/2010.04638v2
- Date: Wed, 20 Jan 2021 12:02:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 06:35:00.554573
- Title: Baseline and Triangulation Geometry in a Standard Plenoptic Camera
- Title(参考訳): プレンオプティクス標準カメラのベースラインと三角測量幾何学
- Authors: Christopher Hahne, Amar Aggoun, Vladan Velisavljevic, Susanne Fiebig,
Matthias Pesch
- Abstract要約: レンズカメラに三角測量を適用可能な幾何学的光場モデルを提案する。
提案手法から推定した距離は,カメラの前に設置した実物の距離と一致している。
- 参考スコア(独自算出の注目度): 6.719751155411075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we demonstrate light field triangulation to determine depth
distances and baselines in a plenoptic camera. Advances in micro lenses and
image sensors have enabled plenoptic cameras to capture a scene from different
viewpoints with sufficient spatial resolution. While object distances can be
inferred from disparities in a stereo viewpoint pair using triangulation, this
concept remains ambiguous when applied in the case of plenoptic cameras. We
present a geometrical light field model allowing the triangulation to be
applied to a plenoptic camera in order to predict object distances or specify
baselines as desired. It is shown that distance estimates from our novel method
match those of real objects placed in front of the camera. Additional benchmark
tests with an optical design software further validate the model's accuracy
with deviations of less than +-0.33 % for several main lens types and focus
settings. A variety of applications in the automotive and robotics field can
benefit from this estimation model.
- Abstract(参考訳): 本稿では,plenopticカメラにおける深度距離とベースラインを決定するために,光場の三角測量を行う。
マイクロレンズとイメージセンサーの進歩により、カメラは十分な空間解像度で異なる視点からシーンを捉えられるようになった。
対象距離は三角測量を用いてステレオ視点対の差から推測できるが、プレン光学カメラの場合、この概念はあいまいなままである。
対象距離を予測したり、必要に応じてベースラインを指定するために、三角測量をプレンオプティカルカメラに適用できる幾何学的光場モデルを提案する。
提案手法から推定した距離は,カメラの前に設置した実物の距離と一致している。
光設計ソフトウェアによる追加のベンチマークテストは、いくつかの主レンズタイプとフォーカス設定で+-0.33 %未満の偏差でモデルの精度をさらに検証する。
自動車とロボット分野の様々な応用がこの推定モデルから恩恵を受けることができる。
関連論文リスト
- GVDepth: Zero-Shot Monocular Depth Estimation for Ground Vehicles based on Probabilistic Cue Fusion [7.588468985212172]
計量単分子深度推定の一般化は、その不適切な性質のために重要な課題となる。
本稿では,様々なカメラ設定の整合性を維持する新しい標準表現を提案する。
また,物体の大きさや垂直位置の手がかりによって推定される深度を適応的かつ確率的に融合する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-08T22:04:34Z) - Single-Shot Metric Depth from Focused Plenoptic Cameras [18.412662939667676]
視覚センサによる距離推定は、ロボットが環境を知覚し、ナビゲートし、操作するために不可欠である。
光電界イメージングは、単一のデバイスを通してユニークなレンズ構成を使用することで、メートル法深度を推定するための有望なソリューションを提供する。
我々の研究は、高密度なメートル法深度のための集束型レンズカメラの可能性を探究する。
論文 参考訳(メタデータ) (2024-12-03T11:21:17Z) - Metric3Dv2: A Versatile Monocular Geometric Foundation Model for Zero-shot Metric Depth and Surface Normal Estimation [74.28509379811084]
Metric3D v2は、ゼロショット距離深さと1枚の画像からの表面正規推定のための幾何学的基礎モデルである。
距離深度推定と表面正規度推定の両方の解を提案する。
本手法は, ランダムに収集したインターネット画像上での計測3次元構造の正確な復元を可能にする。
論文 参考訳(メタデータ) (2024-03-22T02:30:46Z) - Phase Guided Light Field for Spatial-Depth High Resolution 3D Imaging [36.208109063579066]
3Dイメージングでは、光界カメラは通常単発で、空間解像度と深度精度の低下に悩まされる。
そこで本研究では,オフザシェルフ光場カメラの空間分解能と深度を両立させる位相誘導光場アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:08:15Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Ray Tracing-Guided Design of Plenoptic Cameras [1.1421942894219896]
レンズカメラの設計には、2つの異なる光学系の組み合わせが必要である。
そこで本稿では,制約の組によって残される開口,センサ,マイクロレンズの配列パラメータを計算する手法を提案する。
我々のレイトレーシングに基づくアプローチは、一般的に用いられるパラ軸近似で生成されたペンダントよりも優れた結果をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-03-09T11:57:00Z) - Facial Depth and Normal Estimation using Single Dual-Pixel Camera [81.02680586859105]
DP指向のDepth/Normalネットワークを導入し,3次元顔形状を再構成する。
これは、メートル法スケールでの深度マップと表面正規を含む、対応する地上3次元モデルを含んでいる。
近年のDPベース深度/正規推定法で最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-11-25T05:59:27Z) - 3D-Aware Ellipse Prediction for Object-Based Camera Pose Estimation [3.103806775802078]
視聴条件に頑健な粗いカメラポーズ計算法を提案する。
観察条件に関係なく、物体を確実に検出する深層学習技術を活用する。
論文 参考訳(メタデータ) (2021-05-24T18:40:18Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。