論文の概要: Volumetric Calculation of Quantization Error in 3-D Vision Systems
- arxiv url: http://arxiv.org/abs/2010.08390v1
- Date: Fri, 16 Oct 2020 13:48:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 21:49:45.987614
- Title: Volumetric Calculation of Quantization Error in 3-D Vision Systems
- Title(参考訳): 3次元視覚系における量子化誤差の体積計算
- Authors: Eleni Bohacek, Andrew J. Coates, David R. Selviah
- Abstract要約: 通常、ピクセルとシーンの特徴はポイントであると仮定されるが、ピクセルはシーン内の複数のポイントにマップされる2次元領域である。
この不確実領域は、計算された点位置における量子化誤差に対する境界である。
我々は、シーンポイントの配列を生成し、各カメラのどのピクセルでどのシーンポイントが検出されるかを計算する。
これにより、複雑な形状を近似することなく、所定のカメラシステムに対する各画素対応の不確かさ領域を1つの計算でマップできる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates how the inherent quantization of camera sensors
introduces uncertainty in the calculated position of an observed feature during
3-D mapping. It is typically assumed that pixels and scene features are points,
however, a pixel is a two-dimensional area that maps onto multiple points in
the scene. This uncertainty region is a bound for quantization error in the
calculated point positions. Earlier studies calculated the volume of two
intersecting pixel views, approximated as a cuboid, by projecting pyramids and
cones from the pixels into the scene. In this paper, we reverse this approach
by generating an array of scene points and calculating which scene points are
detected by which pixel in each camera. This enables us to map the uncertainty
regions for every pixel correspondence for a given camera system in one
calculation, without approximating the complex shapes. The dependence of the
volumes of the uncertainty regions on camera baseline length, focal length,
pixel size, and distance to object, shows that earlier studies overestimated
the quantization error by at least a factor of two. For static camera systems
the method can also be used to determine volumetric scene geometry without the
need to calculate disparity maps.
- Abstract(参考訳): 本論文では,カメラセンサの固有量子化が3次元マッピングにおける観測特徴の計算位置の不確かさをいかに引き起こすかを検討する。
通常、ピクセルとシーンの特徴はポイントであると仮定されるが、ピクセルはシーン内の複数のポイントにマップされる2次元領域である。
この不確実領域は、計算された点位置における量子化誤差のバウンドである。
初期の研究では、ピラミッドと円錐をピクセルからシーンに投影することで、2つの交差するピクセルビューの体積を計算した。
本稿では、シーンポイントの配列を生成し、各カメラの画素によってどのシーンポイントが検出されるかを計算することにより、このアプローチを逆転させる。
これにより、複雑な形状を近似することなく、所定のカメラシステムに対する各画素対応の不確かさ領域を1つの計算でマップできる。
不確実領域の体積がカメラベースライン長、焦点長、画素サイズ、被写体の距離に依存することは、以前の研究では少なくとも2倍の量子化誤差を過大評価していたことを示している。
静止カメラシステムでは、不一致マップを計算する必要なしに、ボリュームシーンの形状を決定するためにも使用できる。
関連論文リスト
- CVCP-Fusion: On Implicit Depth Estimation for 3D Bounding Box Prediction [2.0375637582248136]
Cross-View Center Point-Fusionは、3Dオブジェクト検出を行う最先端モデルである。
我々のアーキテクチャは、以前に確立されたアルゴリズム、クロスビュートランスフォーマー、CenterPointのアスペクトを利用する。
論文 参考訳(メタデータ) (2024-10-15T02:55:07Z) - SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling [75.957103837167]
1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
論文 参考訳(メタデータ) (2022-08-14T16:37:51Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - Level Set-Based Camera Pose Estimation From Multiple 2D/3D
Ellipse-Ellipsoid Correspondences [2.016317500787292]
2次元物体検出に対する3次元物体の投影を特徴付けるコスト関数の定義は簡単ではないことを示す。
レベルセットのサンプリングに基づいて楕円楕円コストを開発し、部分的な可視オブジェクトを扱うための優れた特性を実証し、その性能を他の一般的なメトリクスと比較する。
論文 参考訳(メタデータ) (2022-07-16T14:09:54Z) - Category-Level Metric Scale Object Shape and Pose Estimation [73.92460712829188]
本稿では,測度スケールの形状と1枚のRGB画像からのポーズを共同で推定するフレームワークを提案する。
カテゴリーレベルのオブジェクトのポーズと形状を評価するために,合成と実世界の両方のデータセット上で本手法の有効性を検証した。
論文 参考訳(メタデータ) (2021-09-01T12:16:46Z) - Object Disparity [0.0]
本稿では,高密度画素差を直接検出して3次元物体距離検出を行う方法を提案する。
圧縮ネットオブジェクト分散-SSDの例は、Kittiデータセットの分散基底真理と比較した場合の精度で、効率的なオブジェクト分散検出を示すために構築された。
論文 参考訳(メタデータ) (2021-08-18T02:11:28Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - Calibrated and Partially Calibrated Semi-Generalized Homographies [65.29477277713205]
視点と一般化カメラから半一般化ホモグラフィーを推定するための最初の最小解を提案する。
提案した解法は、多くの合成および実世界の実験で実証されたように安定かつ効率的である。
論文 参考訳(メタデータ) (2021-03-11T08:56:24Z) - P2-Net: Joint Description and Detection of Local Features for Pixel and
Point Matching [78.18641868402901]
この研究は、2D画像と3D点雲の微粒な対応を確立するための取り組みである。
画素領域と点領域の固有情報変動を緩和するために,新しい損失関数と組み合わせた超広帯域受信機構を設計した。
論文 参考訳(メタデータ) (2021-03-01T14:59:40Z) - 3D Object Localization Using 2D Estimates for Computer Vision
Applications [0.9543667840503739]
ポーズ推定とカメラキャリブレーションに基づく物体位置推定手法を提案する。
3次元座標は、対象物の複数の2次元(2次元)画像を収集して推定し、カメラの校正に利用する。
論文 参考訳(メタデータ) (2020-09-24T01:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。