論文の概要: Time-Ordered Recent Event (TORE) Volumes for Event Cameras
- arxiv url: http://arxiv.org/abs/2103.06108v1
- Date: Wed, 10 Mar 2021 15:03:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 12:50:17.216906
- Title: Time-Ordered Recent Event (TORE) Volumes for Event Cameras
- Title(参考訳): イベントカメラ用時系列最新のイベントボリューム(TORE)
- Authors: R. Wes Baldwin, Ruixu Liu, Mohammed Almatrafi, Vijayan Asari, Keigo
Hirakawa
- Abstract要約: イベントカメラは、非常に低遅延で広いダイナミックレンジの高速イメージングを可能にするエキサイティングで新しいセンサーモダリティです。
ほとんどの機械学習アーキテクチャは、イベントカメラから生成されたスパースデータを直接扱うように設計されていない。
本稿では,時系列最近のイベント(TORE)ボリュームというイベント表現を詳述する。
TOREボリュームは、最小限の情報損失で生のスパイクタイミング情報をコンパクトに格納するように設計されています。
- 参考スコア(独自算出の注目度): 21.419206807872797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras are an exciting, new sensor modality enabling high-speed
imaging with extremely low-latency and wide dynamic range. Unfortunately, most
machine learning architectures are not designed to directly handle sparse data,
like that generated from event cameras. Many state-of-the-art algorithms for
event cameras rely on interpolated event representations - obscuring crucial
timing information, increasing the data volume, and limiting overall network
performance. This paper details an event representation called Time-Ordered
Recent Event (TORE) volumes. TORE volumes are designed to compactly store raw
spike timing information with minimal information loss. This bio-inspired
design is memory efficient, computationally fast, avoids time-blocking (i.e.
fixed and predefined frame rates), and contains "local memory" from past data.
The design is evaluated on a wide range of challenging tasks (e.g. event
denoising, image reconstruction, classification, and human pose estimation) and
is shown to dramatically improve state-of-the-art performance. TORE volumes are
an easy-to-implement replacement for any algorithm currently utilizing event
representations.
- Abstract(参考訳): イベントカメラは、非常に低遅延で広いダイナミックレンジの高速イメージングを可能にするエキサイティングで新しいセンサーモダリティです。
残念ながら、ほとんどの機械学習アーキテクチャは、イベントカメラから生成されたようなスパースデータを直接扱うように設計されていない。
イベントカメラの多くの最先端のアルゴリズムは、重要なタイミング情報を隠蔽し、データ量を増やし、全体的なネットワークパフォーマンスを制限する、補間されたイベント表現に依存しています。
本稿では,時系列最近のイベント(TORE)ボリュームというイベント表現を詳述する。
TOREボリュームは、最小限の情報損失で生のスパイクタイミング情報をコンパクトに格納するように設計されています。
このバイオインスパイアされた設計はメモリ効率が良く、計算が速く、時間ブロックを避ける。
固定および予め定義されたフレームレート)で、過去のデータからの"ローカルメモリ"を含んでいる。
設計は、さまざまな課題(例えば、)で評価される。
イベントデノイジング、画像再構成、分類、および人間のポーズ推定)は、最先端のパフォーマンスを劇的に改善することが示されています。
TOREボリュームは、現在イベント表現を利用しているアルゴリズムの簡単に実装できる代替品です。
関連論文リスト
- Gradient events: improved acquisition of visual information in event cameras [0.0]
従来の明るさイベントと同じ特性から恩恵を受ける新しいタイプのイベントである勾配イベントを提案する。
勾配イベントに基づくビデオ再構成は、既存の最先端の輝度イベントベースの手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2024-09-03T10:18:35Z) - Graph-based Asynchronous Event Processing for Rapid Object Recognition [59.112755601918074]
イベントカメラは、各イベントがピクセル位置、トリガ時間、明るさの極性が変化するような非同期イベントストリームをキャプチャする。
イベントカメラのための新しいグラフベースのフレームワーク、SlideGCNを紹介した。
当社のアプローチでは、データをイベント単位で効率的に処理し、内部でグラフの構造を維持しながら、イベントデータの低レイテンシ特性を解放することが可能です。
論文 参考訳(メタデータ) (2023-08-28T08:59:57Z) - Deformable Convolutions and LSTM-based Flexible Event Frame Fusion
Network for Motion Deblurring [7.187030024676791]
イベントカメラは、非同期データシーケンスを生成するという点で、従来のRGBカメラとは異なる。
RGBカメラは固定レートですべてのフレームをキャプチャするが、イベントカメラはシーンの変化のみをキャプチャし、スパースと非同期のデータ出力をもたらす。
最近のCNNベースのデブロアリングソリューションは、イベントデータの蓄積に基づいて、複数の2次元イベントフレームを生成する。
特に、照明条件や現場における動きの速い物体の存在といった要因によって露光時間が異なるシナリオでは特に有用である。
論文 参考訳(メタデータ) (2023-06-01T15:57:12Z) - Event Transformer+. A multi-purpose solution for efficient event data
processing [13.648678472312374]
イベントカメラは、高時間分解能と高ダイナミックレンジでスパース照明変化を記録する。
現在の手法は特定のイベントデータ特性を無視することが多く、汎用的だが計算コストのかかるアルゴリズムの開発に繋がる。
本稿では,改良されたパッチベースのイベント表現を用いて,セマンティックな作業EvTを改善するEvent Transformer+を提案する。
論文 参考訳(メタデータ) (2022-11-22T12:28:37Z) - Event-based Image Deblurring with Dynamic Motion Awareness [10.81953574179206]
露光時間における実RGBのぼかし画像と関連する事象のペアを含む最初のデータセットを紹介する。
以上の結果より,PSNRは合成データで1.57dB,実イベントデータで1.08dBまで改善された。
論文 参考訳(メタデータ) (2022-08-24T09:39:55Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - MEFNet: Multi-scale Event Fusion Network for Motion Deblurring [62.60878284671317]
従来のフレームベースのカメラは、長時間露光のために必然的に動きがぼやけている。
バイオインスパイアされたカメラの一種として、イベントカメラは、高時間分解能で非同期な方法で強度変化を記録する。
本稿では,イベントベースの画像劣化問題を再考し,これをエンドツーエンドの2段階画像復元ネットワークに展開する。
論文 参考訳(メタデータ) (2021-11-30T23:18:35Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Learning to Detect Objects with a 1 Megapixel Event Camera [14.949946376335305]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジで視覚情報を符号化する。
フィールドの新規性のため、多くのビジョンタスクにおけるイベントベースのシステムの性能は、従来のフレームベースのソリューションに比べて依然として低い。
論文 参考訳(メタデータ) (2020-09-28T16:03:59Z) - EventSR: From Asynchronous Events to Image Reconstruction, Restoration,
and Super-Resolution via End-to-End Adversarial Learning [75.17497166510083]
イベントカメラは強度の変化を感知し、従来のカメラよりも多くの利点がある。
イベントストリームからの強度画像の再構成手法が提案されている。
出力は依然として低解像度(LR)、ノイズ、非現実的である。
本研究では、イベントストリームからLR画像を再構成し、画像品質を高め、EventSRと呼ばれる拡張イメージをアップサンプリングする、新しいエンドツーエンドパイプラインを提案する。
論文 参考訳(メタデータ) (2020-03-17T10:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。