論文の概要: An Overview of Depth Cameras and Range Scanners Based on Time-of-Flight
Technologies
- arxiv url: http://arxiv.org/abs/2012.06772v1
- Date: Sat, 12 Dec 2020 09:48:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 08:34:24.088538
- Title: An Overview of Depth Cameras and Range Scanners Based on Time-of-Flight
Technologies
- Title(参考訳): 飛行時間技術に基づく深度カメラとレンジスキャナの概要
- Authors: Radu Horaud, Miles Hansard, Georgios Evangelidis and Clement Menier
- Abstract要約: タイム・オブ・フライ(TOF)カメラは、制御されたレーザーまたはLEDソースでシーンを照らすことで、シーンポイントの深さを測定することができる。
まず、飛行中のカメラの基本的な測定原理について述べる。(i)光パルスがデバイスから物体へまた戻るのに要する時間を直接測定するパルス光カメラ(ii)放出された信号と受信された信号の位相差を測定する連続波光カメラであり、そのため間接的に走行時間を取得する。
- 参考スコア(独自算出の注目度): 18.645237518953714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time-of-flight (TOF) cameras are sensors that can measure the depths of
scene-points, by illuminating the scene with a controlled laser or LED source,
and then analyzing the reflected light. In this paper, we will first describe
the underlying measurement principles of time-of-flight cameras, including: (i)
pulsed-light cameras, which measure directly the time taken for a light pulse
to travel from the device to the object and back again, and (ii)
continuous-wave modulated-light cameras, which measure the phase difference
between the emitted and received signals, and hence obtain the travel time
indirectly. We review the main existing designs, including prototypes as well
as commercially available devices. We also review the relevant camera
calibration principles, and how they are applied to TOF devices. Finally, we
discuss the benefits and challenges of combined TOF and color camera systems.
- Abstract(参考訳): time-of(tof)カメラは、シーンをレーザーやledソースで照らし、反射光を分析することで、シーンポイントの深さを計測できるセンサーである。
本稿では、まず、飛行時間カメラの基本的な測定原理について述べる。(i)光パルスがデバイスから物体へまた戻るのに要する時間を直接測定するパルス光カメラ、(ii)放出された信号と受信された信号の位相差を測定する連続波変調光カメラであり、それによって間接的に走行時間を得る。
プロトタイプや市販のデバイスを含む,既存の主要な設計についてレビューする。
また、関連するカメラキャリブレーションの原則や、TOFデバイスに適用される方法についてもレビューする。
最後に,TOFとカラーカメラの組み合わせによるメリットと課題について論じる。
関連論文リスト
- Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Single-shot ToF sensing with sub-mm precision using conventional CMOS
sensors [7.114925332582435]
動的物体の高精度な3次元計測を目的とした,新しい単発干渉計ToFカメラを提案する。
従来のToFカメラとは対照的に、当社のデバイスは市販のCCD/CMOS検出器のみを使用し、ネイティブチップの解像度で動作する。
我々は,2Mp点の雲の分解能を持つ小型(cmサイズの)物体の3次元計測を行い,その深さを2mm以下の精度で測定した。
論文 参考訳(メタデータ) (2022-12-02T01:50:36Z) - Passive Micron-scale Time-of-Flight with Sunlight Interferometry [22.706332189135242]
微視的軸方向分解能における受動飛行時間イメージングと深度センシングのための干渉計測手法を提案する。
我々の技術は、日光を唯一の光源として使うように修正されたフルフィールドミッチェルソン干渉計を使用する。
我々は、直射日光の下で、および機械振動や車両交通などの環境条件下で、野外で運用する実験プロトタイプを構築した。
論文 参考訳(メタデータ) (2022-11-19T15:56:39Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - All-photon Polarimetric Time-of-Flight Imaging [33.499684969102816]
Time-of-light (ToF) センサーは、LiDARを含む様々な用途を自律運転に利用するための画像モダリティを提供する。
従来のToFイメージング法では、光のパルスをシーンに送信し、最初の光子のToFを測定することで、深さを推定する。
本稿では, 時間偏光解析を取り入れた全光子ToFイメージング手法を提案する。
論文 参考訳(メタデータ) (2021-12-17T01:51:47Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - CoMo: A novel co-moving 3D camera system [0.0]
CoMoは2台の同期高速カメラと回転ステージを組み合わせた共同移動カメラシステムである。
本稿では,システム"ホーム"構成において,カメラの位置とヨー,ピッチ,ロールの3つの角度を測定する外部パラメータのキャリブレーションについて述べる。
本研究では,3次元実験において,再現および測定した3次元距離を1%の相対誤差で比較することにより,システムのロバスト性と精度を評価する。
論文 参考訳(メタデータ) (2021-01-26T13:29:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。