論文の概要: High-speed object detection with a single-photon time-of-flight image
sensor
- arxiv url: http://arxiv.org/abs/2107.13407v1
- Date: Wed, 28 Jul 2021 14:53:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 17:37:55.311301
- Title: High-speed object detection with a single-photon time-of-flight image
sensor
- Title(参考訳): 単一光子時間画像センサによる高速物体検出
- Authors: Germ\'an Mora-Mart\'in, Alex Turpin, Alice Ruget, Abderrahim Halimi,
Robert Henderson, Jonathan Leach and Istvan Gyongy
- Abstract要約: 我々は,64×32の空間解像度で16ビンの光子タイミングヒストグラムを出力する携帯型SPADカメラシステムの結果を報告する。
結果は、人間の反応時間よりも早く恩恵を受けるであろう安全クリティカルなコンピュータビジョンアプリケーションに関係している。
- 参考スコア(独自算出の注目度): 2.648554238948439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D time-of-flight (ToF) imaging is used in a variety of applications such as
augmented reality (AR), computer interfaces, robotics and autonomous systems.
Single-photon avalanche diodes (SPADs) are one of the enabling technologies
providing accurate depth data even over long ranges. By developing SPADs in
array format with integrated processing combined with pulsed, flood-type
illumination, high-speed 3D capture is possible. However, array sizes tend to
be relatively small, limiting the lateral resolution of the resulting depth
maps, and, consequently, the information that can be extracted from the image
for applications such as object detection. In this paper, we demonstrate that
these limitations can be overcome through the use of convolutional neural
networks (CNNs) for high-performance object detection. We present outdoor
results from a portable SPAD camera system that outputs 16-bin photon timing
histograms with 64x32 spatial resolution. The results, obtained with exposure
times down to 2 ms (equivalent to 500 FPS) and in signal-to-background (SBR)
ratios as low as 0.05, point to the advantages of providing the CNN with full
histogram data rather than point clouds alone. Alternatively, a combination of
point cloud and active intensity data may be used as input, for a similar level
of performance. In either case, the GPU-accelerated processing time is less
than 1 ms per frame, leading to an overall latency (image acquisition plus
processing) in the millisecond range, making the results relevant for
safety-critical computer vision applications which would benefit from faster
than human reaction times.
- Abstract(参考訳): 3d time-of(tof)イメージングは、拡張現実(ar)、コンピュータインターフェース、ロボット工学、自律システムなど、さまざまなアプリケーションで使用されている。
単一光子アバランシェダイオード(SPAD)は、長距離でも正確な深度データを提供できる技術の一つである。
パルス型照明と統合処理を組み合わせた配列形式でSPADを開発することにより,高速3Dキャプチャが可能となる。
しかし、配列のサイズは比較的小さく、結果として得られる深度マップの解像度が制限され、その結果、画像から抽出できる情報は物体検出などの用途のために抽出される。
本稿では,高性能物体検出のための畳み込みニューラルネットワーク(CNN)を用いて,これらの制限を克服できることを実証する。
我々は,64×32の空間解像度で16ビンの光子タイミングヒストグラムを出力する携帯型SPADカメラシステムによる屋外実験を行った。
その結果、露光時間は2ms(500 FPSと同値)、信号-地上比(SBR)は0.05まで低下し、CNNに点雲のみではなく完全なヒストグラムデータを提供することの利点を示している。
あるいは、同じレベルのパフォーマンスのために、ポイントクラウドとアクティブインテンシティデータの組み合わせを入力として使用することもできる。
いずれの場合も、GPUが加速する処理時間は1フレームあたり1ミリ秒未満であり、ミリ秒単位の全体的なレイテンシ(画像取得と処理)につながるため、人間の反応時間よりも高速な安全クリティカルなコンピュータビジョンアプリケーションに関連する結果が得られる。
関連論文リスト
- bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - Single-Photon 3D Imaging with Equi-Depth Photon Histograms [4.432168053497992]
単一光子3Dカメラは、検出された光子タイムスタンプの等幅(EW)ヒストグラムを形成することにより、レーザーパルスのラウンドトリップ時間を推定する。
EWヒストグラムは高い帯域幅と画素内メモリを必要とするため、SPCはリソース制限された設定では魅力的ではない。
等深度(ED)ヒストグラムに基づく3次元センシング手法を提案する。
論文 参考訳(メタデータ) (2024-08-28T22:02:38Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Video super-resolution for single-photon LIDAR [0.0]
3D Time-of-Flight (ToF)イメージセンサーは、自動運転車、拡張現実(AR)、ロボット工学などの用途で広く利用されている。
本稿では,合成深度シーケンスを用いて3次元畳み込みニューラルネットワーク(CNN)を学習し,x4深度データを復調・アップスケーリングする。
GPUアクセラレーションでは、フレームは毎秒30フレーム以上で処理され、障害物回避に必要な低遅延イメージングに適している。
論文 参考訳(メタデータ) (2022-10-19T11:33:29Z) - A direct time-of-flight image sensor with in-pixel surface detection and
dynamic vision [0.0]
3DフラッシュLIDARは、従来の走査型LIDARシステムに代わるもので、コンパクトなフォームファクターで正確な深度イメージングを約束する。
我々は,64x32ピクセル (256x128 SPAD) dToF イメージラを組込みヒストグラムを用いた画素を用いて,これらの制限を克服する。
これにより出力データフレームのサイズが大幅に小さくなり、10kFPS範囲の最大フレームレートや100kFPSの直接深度読み取りが可能となる。
論文 参考訳(メタデータ) (2022-09-23T14:38:00Z) - Single-Photon Structured Light [31.614032717665832]
単一光子構造光」は、露光中の光子到着の有無を示すバイナリイメージを検知することで機能する。
本研究では,プロジェクタやカメラデフォーカスのような短距離効果に対して頑健に設計した誤り訂正符号を用いた新しい時間系列を開発する。
我々の実験室のプロトタイプは、非常に低いアルベドや高速な動きの物体を含む困難なシナリオで3Dイメージングを行うことができる。
論文 参考訳(メタデータ) (2022-04-11T17:57:04Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - Expandable YOLO: 3D Object Detection from RGB-D Images [64.14512458954344]
本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
論文 参考訳(メタデータ) (2020-06-26T07:32:30Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。