論文の概要: A direct time-of-flight image sensor with in-pixel surface detection and
dynamic vision
- arxiv url: http://arxiv.org/abs/2209.11772v1
- Date: Fri, 23 Sep 2022 14:38:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 18:10:23.460851
- Title: A direct time-of-flight image sensor with in-pixel surface detection and
dynamic vision
- Title(参考訳): 画素内表面検出とダイナミックビジョンを用いた飛行時間型画像センサ
- Authors: Istvan Gyongy, Ahmet T. Erdogan, Neale A.W. Dutton, Germ\'an Mora
Mart\'in, Alistair Gorman, Hanning Mai, Francesco Mattioli Della Rocca,
Robert K. Henderson
- Abstract要約: 3DフラッシュLIDARは、従来の走査型LIDARシステムに代わるもので、コンパクトなフォームファクターで正確な深度イメージングを約束する。
我々は,64x32ピクセル (256x128 SPAD) dToF イメージラを組込みヒストグラムを用いた画素を用いて,これらの制限を克服する。
これにより出力データフレームのサイズが大幅に小さくなり、10kFPS範囲の最大フレームレートや100kFPSの直接深度読み取りが可能となる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D flash LIDAR is an alternative to the traditional scanning LIDAR systems,
promising precise depth imaging in a compact form factor, and free of moving
parts, for applications such as self-driving cars, robotics and augmented
reality (AR). Typically implemented using single-photon, direct time-of-flight
(dToF) receivers in image sensor format, the operation of the devices can be
hindered by the large number of photon events needing to be processed and
compressed in outdoor scenarios, limiting frame rates and scalability to larger
arrays. We here present a 64x32 pixel (256x128 SPAD) dToF imager that overcomes
these limitations by using pixels with embedded histogramming, which lock onto
and track the return signal. This reduces the size of output data frames
considerably, enabling maximum frame rates in the 10 kFPS range or 100 kFPS for
direct depth readings. The sensor offers selective readout of pixels detecting
surfaces, or those sensing motion, leading to reduced power consumption and
off-chip processing requirements. We demonstrate the application of the sensor
in mid-range LIDAR.
- Abstract(参考訳): 3DフラッシュLIDARは、従来の走査型LIDARシステムに代わるもので、コンパクトなフォームファクターで正確な深度イメージングを約束し、自動運転車、ロボティクス、拡張現実(AR)などの応用のための可動部品を使用できない。
通常、単光子、直接飛行時間(dToF)受信機をイメージセンサー形式で実装するが、装置の動作は、屋外のシナリオで処理や圧縮を必要とする大量の光子イベントによって妨げられ、フレームレートと拡張性はより大きな配列に制限される。
ここでは,64x32 ピクセル (256x128 SPAD) dToF 撮像器を組込みヒストグラム法により,この制限を克服し,返却信号のロックと追跡を行う。
これにより出力データフレームのサイズが大幅に小さくなり、10kFPS範囲の最大フレームレートや100kFPSの直接深度読み取りが可能となる。
このセンサーは、画素検出面またはそのセンシング動作の選択的読み出しを提供し、消費電力の削減とオフチップ処理の要求に繋がる。
中距離LIDARにおけるセンサの適用例を示す。
関連論文リスト
- Energy-Efficient & Real-Time Computer Vision with Intelligent Skipping via Reconfigurable CMOS Image Sensors [5.824962833043625]
ビデオベースのコンピュータビジョンアプリケーションは、一般的に、その重要性に関わらず、フレーム内のすべてのピクセルを読み、処理するため、高エネルギー消費に悩まされる。
従来の作業では、入力パッチやピクセルをスキップし、最終タスクからのフィードバックを使ってスキップアルゴリズムをガイドすることで、このエネルギーを削減しようとしていた。
本稿では,センサの読み出しフェーズにおいて,フレーム内の不規則領域や行を選択的にスキップすることで,エネルギー効率を向上させるカスタムデザインCMOSイメージセンサ(CIS)システムを提案する。
論文 参考訳(メタデータ) (2024-09-25T20:32:55Z) - ExBluRF: Efficient Radiance Fields for Extreme Motion Blurred Images [58.24910105459957]
極端運動ぼかし画像の新しいビュー合成法であるExBluRFを提案する。
提案手法は,6-DOFカメラトラジェクトリをベースとしたモーションブラー定式化と,ボクセルをベースとした放射場からなる。
既存の作業と比較して、トレーニング時間とGPUメモリ使用量の10倍の順序で、よりシャープな3Dシーンを復元する。
論文 参考訳(メタデータ) (2023-09-16T11:17:25Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Video super-resolution for single-photon LIDAR [0.0]
3D Time-of-Flight (ToF)イメージセンサーは、自動運転車、拡張現実(AR)、ロボット工学などの用途で広く利用されている。
本稿では,合成深度シーケンスを用いて3次元畳み込みニューラルネットワーク(CNN)を学習し,x4深度データを復調・アップスケーリングする。
GPUアクセラレーションでは、フレームは毎秒30フレーム以上で処理され、障害物回避に必要な低遅延イメージングに適している。
論文 参考訳(メタデータ) (2022-10-19T11:33:29Z) - Real-Time Optical Flow for Vehicular Perception with Low- and
High-Resolution Event Cameras [3.845877724862319]
イベントカメラは、観測されたシーンにおける照明の変化を捉え、画像を作成するために光を蓄積する。
我々は,低解像度および高解像度のイベントカメラを用いて,光学的流れをリアルタイムに計算するための最適化フレームワークを提案する。
我々は,低解像度運転シーケンスと高解像度運転シーケンスの両方に対するアプローチを評価し,現状よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-20T15:09:20Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - FOVEA: Foveated Image Magnification for Autonomous Navigation [53.69803081925454]
入力キャンバスを小さく保ちながら、ある領域を弾性的に拡大する注意的アプローチを提案する。
提案手法は,高速R-CNNより高速かつ微調整の少ない検出APを高速化する。
Argoverse-HD と BDD100K の自律走行データセットでは,提案手法が標準の高速 R-CNN を超越した検出APを微調整なしで促進することを示す。
論文 参考訳(メタデータ) (2021-08-27T03:07:55Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - High-speed object detection with a single-photon time-of-flight image
sensor [2.648554238948439]
我々は,64×32の空間解像度で16ビンの光子タイミングヒストグラムを出力する携帯型SPADカメラシステムの結果を報告する。
結果は、人間の反応時間よりも早く恩恵を受けるであろう安全クリティカルなコンピュータビジョンアプリケーションに関係している。
論文 参考訳(メタデータ) (2021-07-28T14:53:44Z) - Time-Multiplexed Coded Aperture Imaging: Learned Coded Aperture and
Pixel Exposures for Compressive Imaging Systems [56.154190098338965]
提案した時間多重符号化開口(TMCA)をエンドツーエンドで最適化できることを示した。
tmcaは圧縮光野イメージングとハイパースペクトルイメージングの2つの異なる応用において、より良いコード化されたスナップショットを誘導する。
この凝固法は、最先端の圧縮画像システムよりも4dB以上性能が高い。
論文 参考訳(メタデータ) (2021-04-06T22:42:34Z) - Agile Reactive Navigation for A Non-Holonomic Mobile Robot Using A Pixel
Processor Array [22.789108850681146]
本稿では、低コストのプロセッサアレイセンサを用いて、乱雑な環境下で、非ホロノミックな地上車両を予め設定されたゲートの周囲を走行するためのアジャイルな反応性ナビゲーション戦略を提案する。
最小限の計算資源を用いて複数のゲートを高速に走行または回避する小型地上車両を実演する。
論文 参考訳(メタデータ) (2020-09-27T09:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。