論文の概要: ASAP: Adaptive Scheme for Asynchronous Processing of Event-based Vision
Algorithms
- arxiv url: http://arxiv.org/abs/2209.08597v1
- Date: Sun, 18 Sep 2022 16:28:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 19:41:03.114403
- Title: ASAP: Adaptive Scheme for Asynchronous Processing of Event-based Vision
Algorithms
- Title(参考訳): ASAP:イベントベースビジョンアルゴリズムの非同期処理のための適応型スキーム
- Authors: Raul Tapia, Augusto G\'omez Egu\'iluz, Jos\'e Ramiro Mart\'inez-de
Dios, Anibal Ollero
- Abstract要約: イベントカメラは、非常に高い時間分解能とダイナミックレンジでピクセルレベルの照明変化を捉えることができる。
イベントベースの処理アルゴリズムを提供する2つの主要なアプローチがある。イベントパッケージにトリガされたイベントをパッケージ化し、単一のイベントとして1対1で送信する。
本稿では、イベントパッケージ処理時間に対応する可変サイズのパッケージを通じてイベントストリームを管理する適応型スキームASAPを提案する。
- 参考スコア(独自算出の注目度): 0.2580765958706853
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Event cameras can capture pixel-level illumination changes with very high
temporal resolution and dynamic range. They have received increasing research
interest due to their robustness to lighting conditions and motion blur. Two
main approaches exist in the literature to feed the event-based processing
algorithms: packaging the triggered events in event packages and sending them
one-by-one as single events. These approaches suffer limitations from either
processing overflow or lack of responsivity. Processing overflow is caused by
high event generation rates when the algorithm cannot process all the events in
real-time. Conversely, lack of responsivity happens in cases of low event
generation rates when the event packages are sent at too low frequencies. This
paper presents ASAP, an adaptive scheme to manage the event stream through
variable-size packages that accommodate to the event package processing times.
The experimental results show that ASAP is capable of feeding an asynchronous
event-by-event clustering algorithm in a responsive and efficient manner and at
the same time prevents overflow.
- Abstract(参考訳): イベントカメラは、非常に高い時間分解能とダイナミックレンジでピクセルレベルの照明変化を捉えることができる。
照明条件や動きのぼやけに対する頑丈さから研究の関心が高まっている。
イベントベースの処理アルゴリズムを提供する2つの主要なアプローチがある。イベントパッケージにトリガされたイベントをパッケージ化し、単一のイベントとして1対1で送信する。
これらのアプローチはオーバーフロー処理や応答性の欠如によって制限を受ける。
処理オーバーフローは、アルゴリズムがすべてのイベントをリアルタイムで処理できない場合、高いイベント発生率によって引き起こされる。
逆に、応答性の欠如は、イベントパッケージが低周波数で送信される場合のイベント発生率が低い場合に発生する。
本稿では、イベントパッケージ処理時間に対応する可変サイズのパッケージを通じてイベントストリームを管理する適応型スキームASAPを提案する。
実験の結果,ASAPは非同期なイベント・バイ・イベント・クラスタリングアルゴリズムを応答的かつ効率的な方法で供給でき,同時にオーバーフローを防止できることがわかった。
関連論文リスト
- Event-ECC: Asynchronous Tracking of Events with Continuous Optimization [1.9446776999250501]
イベントECC (eECC) という,イベントごとの2次元運動ワープを計算するトラッキングアルゴリズムを提案する。
イベント処理の計算負担は、インクリメンタル処理と更新スキームの恩恵を受ける軽量バージョンによって軽減される。
最先端のイベントベース非同期トラッカーにおける追跡精度と特徴年齢の改善について報告する。
論文 参考訳(メタデータ) (2024-09-22T19:03:19Z) - Scalable Event-by-event Processing of Neuromorphic Sensory Signals With Deep State-Space Models [2.551844666707809]
イベントベースのセンサーはリアルタイム処理に適している。
現在の方法では、イベントをフレームに分解するか、イベントデータをイベント単位で直接処理する場合にスケールアップできない。
論文 参考訳(メタデータ) (2024-04-29T08:50:27Z) - Representation Learning on Event Stream via an Elastic Net-incorporated
Tensor Network [1.9515859963221267]
本稿では,イベントストリーム中のすべてのイベントのグローバルな相関を同時に取得できる新しい表現法を提案する。
本手法は, 最先端手法と比較して, フィルタノイズなどの応用において有効な結果が得られる。
論文 参考訳(メタデータ) (2024-01-16T02:51:47Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Graph-based Asynchronous Event Processing for Rapid Object Recognition [59.112755601918074]
イベントカメラは、各イベントがピクセル位置、トリガ時間、明るさの極性が変化するような非同期イベントストリームをキャプチャする。
イベントカメラのための新しいグラフベースのフレームワーク、SlideGCNを紹介した。
当社のアプローチでは、データをイベント単位で効率的に処理し、内部でグラフの構造を維持しながら、イベントデータの低レイテンシ特性を解放することが可能です。
論文 参考訳(メタデータ) (2023-08-28T08:59:57Z) - Learning to Super-Resolve Blurry Images with Events [62.61911224564196]
単一運動ブラインド画像(SRB)からの超解像は, 運動ぼけと低空間分解能の合同劣化により, 深刻な問題となる。
我々は、SRBの負担を軽減するためにイベントを使用し、イベント強化SRB(E-SRB)アルゴリズムを提案する。
提案するeSL-Net++は最先端の手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2023-02-27T13:46:42Z) - Temporal Up-Sampling for Asynchronous Events [0.0]
低明度やスローモーションのシーンでは、イベントはスパースでノイズを伴うことが多い。
より効率的で信頼性の高いイベントを生成するために,イベント時間的アップサンプリングアルゴリズムを提案する。
実験により、アップサンプリングイベントはより効果的な情報を提供し、下流タスクの性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2022-08-18T09:12:08Z) - Unifying Event Detection and Captioning as Sequence Generation via
Pre-Training [53.613265415703815]
本稿では,イベント検出とキャプションのタスク間関連性を高めるための,事前学習と微調整の統合フレームワークを提案する。
我々のモデルは最先端の手法よりも優れており、大規模ビデオテキストデータによる事前学習ではさらに向上できる。
論文 参考訳(メタデータ) (2022-07-18T14:18:13Z) - Event Transformer [43.193463048148374]
イベントカメラの消費電力が低く、マイクロ秒の明るさを捉える能力は、様々なコンピュータビジョンタスクにとって魅力的である。
既存のイベント表現方法は通常、イベントをフレーム、ボクセルグリッド、ディープニューラルネットワーク(DNN)のスパイクに変換する。
この研究はトークンベースの新しいイベント表現を導入し、各イベントはイベントトークンと呼ばれる基本的な処理ユニットと見なされる。
論文 参考訳(メタデータ) (2022-04-11T15:05:06Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。