論文の概要: EVReflex: Dense Time-to-Impact Prediction for Event-based Obstacle
Avoidance
- arxiv url: http://arxiv.org/abs/2109.00405v1
- Date: Wed, 1 Sep 2021 14:34:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 14:12:06.234547
- Title: EVReflex: Dense Time-to-Impact Prediction for Event-based Obstacle
Avoidance
- Title(参考訳): EVReflex:イベントベースの障害物回避のための時間対即時予測
- Authors: Celyn Walters and Simon Hadfield
- Abstract要約: イベントと深さの融合は、障害回避を行う際の個々のモダリティの障害ケースを克服することを示す。
提案手法は,イベントカメラとライダーストリームを一体化して,シーン形状や障害物の事前知識を必要とせずに計測時間とインパクトを推定する。
- 参考スコア(独自算出の注目度): 28.88113725832339
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The broad scope of obstacle avoidance has led to many kinds of computer
vision-based approaches. Despite its popularity, it is not a solved problem.
Traditional computer vision techniques using cameras and depth sensors often
focus on static scenes, or rely on priors about the obstacles. Recent
developments in bio-inspired sensors present event cameras as a compelling
choice for dynamic scenes. Although these sensors have many advantages over
their frame-based counterparts, such as high dynamic range and temporal
resolution, event-based perception has largely remained in 2D. This often leads
to solutions reliant on heuristics and specific to a particular task. We show
that the fusion of events and depth overcomes the failure cases of each
individual modality when performing obstacle avoidance. Our proposed approach
unifies event camera and lidar streams to estimate metric time-to-impact
without prior knowledge of the scene geometry or obstacles. In addition, we
release an extensive event-based dataset with six visual streams spanning over
700 scanned scenes.
- Abstract(参考訳): 障害物回避の幅広い範囲は、コンピュータビジョンに基づく様々なアプローチにつながっている。
その人気にもかかわらず、問題は解決されていない。
カメラと奥行きセンサーを用いた従来のコンピュータビジョン技術は、しばしば静的なシーンに焦点をあてたり、障害物について事前に依存する。
バイオインスパイアされたセンサーの最近の進歩は、ダイナミックシーンの魅力的な選択としてイベントカメラを提示している。
これらのセンサーは、高ダイナミックレンジや時間分解能など、フレームベースに比べて多くの利点があるが、イベントベースの知覚は2Dのままである。
これはしばしばヒューリスティックに依存し、特定のタスクに特有の解につながる。
障害回避を行う場合,イベントと深さの融合は個々のモダリティの障害事例を克服することを示す。
提案手法は,イベントカメラとライダーストリームを統合して,シーン形状や障害物を事前に把握することなく,計測時間とインパクトを推定する。
さらに、700以上のスキャンされたシーンにまたがる6つのビジュアルストリームを備えた、広範なイベントベースのデータセットをリリースします。
関連論文リスト
- EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [76.02450110026747]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - Self-supervised Event-based Monocular Depth Estimation using Cross-modal
Consistency [18.288912105820167]
EMoDepth という自己教師型イベントベース単眼深度推定フレームワークを提案する。
EMoDepthは、ピクセル座標内のイベントに整合した強度フレームからのクロスモーダル一貫性を使用して、トレーニングプロセスを制約する。
推論では、単分子深度予測にはイベントのみを使用する。
論文 参考訳(メタデータ) (2024-01-14T07:16:52Z) - Deep Event Visual Odometry [40.57142632274148]
イベントカメラは、高速動作中にカメラのポーズを追跡するエキサイティングな可能性を提供します。
既存のイベントベースのモノクロビジュアルオドメトリーアプローチは、最近のベンチマークで限られたパフォーマンスを示している。
我々は,多数の実世界のベンチマークで高い性能を示す最初の単眼イベントオンリーシステムであるDeep Event VO(DEVO)を紹介する。
論文 参考訳(メタデータ) (2023-12-15T14:00:00Z) - Pedestrian detection with high-resolution event camera [0.0]
イベントカメラ(DVS)は、上記の問題に対処するための、潜在的に興味深い技術である。
本稿では,歩行者検出作業における深層学習によるイベントデータ処理の2つの方法の比較を行う。
ビデオフレーム,畳み込みニューラルネットワーク,非同期スパース畳み込みニューラルネットワークの形式で表現した。
論文 参考訳(メタデータ) (2023-05-29T10:57:59Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and Benchmarks [55.81577205593956]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - Event-based Visual Tracking in Dynamic Environments [0.0]
イベントカメラとオフザシェルフ深層学習の両方を活用するためのフレームワークを提案する。
イベントデータを強度フレームに再構成することで、従来のカメラが許容できない状況下でのトラッキング性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-15T12:18:13Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。