論文の概要: Event Guided Depth Sensing
- arxiv url: http://arxiv.org/abs/2110.10505v1
- Date: Wed, 20 Oct 2021 11:41:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 17:18:37.492794
- Title: Event Guided Depth Sensing
- Title(参考訳): イベントガイドによる深度センシング
- Authors: Manasi Muglikar, Diederik Paul Moeys, Davide Scaramuzza
- Abstract要約: バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
- 参考スコア(独自算出の注目度): 50.997474285910734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active depth sensors like structured light, lidar, and time-of-flight systems
sample the depth of the entire scene uniformly at a fixed scan rate. This leads
to limited spatio-temporal resolution where redundant static information is
over-sampled and precious motion information might be under-sampled. In this
paper, we present an efficient bio-inspired event-camera-driven depth
estimation algorithm. In our approach, we dynamically illuminate areas of
interest densely, depending on the scene activity detected by the event camera,
and sparsely illuminate areas in the field of view with no motion. The depth
estimation is achieved by an event-based structured light system consisting of
a laser point projector coupled with a second event-based sensor tuned to
detect the reflection of the laser from the scene. We show the feasibility of
our approach in a simulated autonomous driving scenario and real indoor
sequences using our prototype. We show that, in natural scenes like autonomous
driving and indoor environments, moving edges correspond to less than 10% of
the scene on average. Thus our setup requires the sensor to scan only 10% of
the scene, which could lead to almost 90% less power consumption by the
illumination source. While we present the evaluation and proof-of-concept for
an event-based structured-light system, the ideas presented here are applicable
for a wide range of depth-sensing modalities like LIDAR, time-of-flight, and
standard stereo.
- Abstract(参考訳): 構造化光、ライダー、飛行時間システムなどの能動深度センサーは、シーン全体の深さを一定のスキャンレートで均一にサンプリングする。
これにより、冗長な静的情報が過剰サンプリングされ、貴重な動き情報がアンダーサンプリングされるような時空間分解が制限される。
本稿では,バイオインスパイアされた生物カメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラで検出されたシーン活動に応じて,関心領域を動的に濃密に照らし,動きのない視野領域を希薄に照らす。
深度推定は、レーザー点プロジェクタと、シーンからのレーザー反射を検出するためにチューニングされた第2のイベントベースセンサとからなるイベントベース構造化光システムによって達成される。
プロトタイプを用いて,シミュレーションされた自律走行シナリオと実際の屋内シーケンスにおけるアプローチの実現可能性を示す。
自律走行や屋内環境のような自然のシーンでは、移動エッジは平均して10%未満のシーンに対応している。
したがって、われわれのセットアップでは、センサーはシーンの10%しかスキャンできず、照明源による消費電力が90%減る可能性がある。
本稿では,イベントベースの構造化光システムの評価と概念実証について述べるが,lidar,time-of-flight,standard stereoなど,幅広い深さ検出モードに適用できる。
関連論文リスト
- Event-based Motion-Robust Accurate Shape Estimation for Mixed
Reflectance Scenes [17.446182782836747]
本稿では,複合反射シーンの高速3次元イメージングを高精度に実現したイベントベース構造化光システムを提案する。
我々は、測定された反射を本質的に拡散、2バウンススペクトル、その他の多重バウンス反射に分解できるエピポーラ制約を用いる。
このシステムは,500,mu$mの精度で混合反射シーンの高速かつモーションロバストな再構成を実現する。
論文 参考訳(メタデータ) (2023-11-16T08:12:10Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - PL-EVIO: Robust Monocular Event-based Visual Inertial Odometry with
Point and Line Features [3.6355269783970394]
イベントカメラは、フレームレートが固定された強度画像の代わりにピクセルレベルの照明変化をキャプチャするモーションアクティベートセンサーである。
本稿では,ロバストで高精度でリアルタイムな単眼イベントベース視覚慣性オドメトリー(VIO)法を提案する。
論文 参考訳(メタデータ) (2022-09-25T06:14:12Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Gated2Gated: Self-Supervised Depth Estimation from Gated Images [22.415893281441928]
ゲーテッドカメラは、高解像度の3D深度でLiDARセンサーをスキャンする代替品として有望だ。
そこで本研究では,ゲート強度プロファイルと時間的一貫性をトレーニング信号として用いた完全自己教師型深度推定手法を提案する。
論文 参考訳(メタデータ) (2021-12-04T19:47:38Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z) - Depth Map Estimation of Dynamic Scenes Using Prior Depth Information [14.03714478207425]
本稿では,並列に収集した画像から深度マップを推定するアルゴリズムと,動的シーンに対する予め測定した深度マップを提案する。
我々のゴールは、大きな計算コストを伴わずに、能動深度センサと計算との深度取得のバランスをとることである。
提案手法では, 標準ラップトップコンピュータ上で, 最大30FPSの高密度深度マップを, 類似の手法よりも桁違いに高速に取得できる。
論文 参考訳(メタデータ) (2020-02-02T01:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。