論文の概要: Event Transformer. A sparse-aware solution for efficient event data
processing
- arxiv url: http://arxiv.org/abs/2204.03355v1
- Date: Thu, 7 Apr 2022 10:49:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 23:33:17.650122
- Title: Event Transformer. A sparse-aware solution for efficient event data
processing
- Title(参考訳): イベントトランスフォーマー。
効率的なイベントデータ処理のためのスパースアウェアソリューション
- Authors: Alberto Sabater and Luis Montesano and Ana C. Murillo
- Abstract要約: Event Transformer(EvT)は、イベントデータプロパティを効果的に活用して、極めて効率的かつ正確なフレームワークである。
EvTは、アクションとジェスチャー認識のためのさまざまなイベントベースのベンチマークで評価される。
結果は、計算リソースを著しく少なくしながら、最先端の精度よりも優れているか同等の精度を示す。
- 参考スコア(独自算出の注目度): 9.669942356088377
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Event cameras are sensors of great interest for many applications that run in
low-resource and challenging environments. They log sparse illumination changes
with high temporal resolution and high dynamic range, while they present
minimal power consumption. However, top-performing methods often ignore
specific event-data properties, leading to the development of generic but
computationally expensive algorithms. Efforts toward efficient solutions
usually do not achieve top-accuracy results for complex tasks. This work
proposes a novel framework, Event Transformer (EvT), that effectively takes
advantage of event-data properties to be highly efficient and accurate. We
introduce a new patch-based event representation and a compact transformer-like
architecture to process it. EvT is evaluated on different event-based
benchmarks for action and gesture recognition. Evaluation results show better
or comparable accuracy to the state-of-the-art while requiring significantly
less computation resources, which makes EvT able to work with minimal latency
both on GPU and CPU.
- Abstract(参考訳): イベントカメラは、低リソースで困難な環境で動作する多くのアプリケーションにとって非常に興味深いセンサーである。
時間分解能が高く、ダイナミックレンジも高いが、消費電力は最小限である。
しかし、トップパフォーマンスメソッドは特定のイベントデータプロパティを無視することが多く、汎用的だが計算コストの高いアルゴリズムの開発に繋がる。
効率的な解への取り組みは、通常、複雑なタスクの最高精度の結果を得られない。
この研究は、イベントデータプロパティを効果的に活用し、高効率で正確なイベントトランスフォーマー(EvT)という新しいフレームワークを提案する。
本稿では,新しいパッチベースのイベント表現と,それを処理するためのコンパクトトランスフォーマライクなアーキテクチャを提案する。
EvTは、アクションとジェスチャー認識のためのさまざまなイベントベースのベンチマークで評価される。
評価の結果、evtはgpuとcpuの両方で最小のレイテンシで動作可能にするため、計算リソースをはるかに少なくしながら、最先端と同等あるいは同等の精度を示している。
関連論文リスト
- EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - FuzzyFlow: Leveraging Dataflow To Find and Squash Program Optimization
Bugs [92.47146416628965]
FuzzyFlowはプログラム最適化をテストするために設計されたフォールトローカライゼーションとテストケース抽出フレームワークである。
我々は、データフロープログラム表現を活用して、完全に再現可能なシステム状態と最適化のエリア・オブ・エフェクトをキャプチャする。
テスト時間を削減するため,テスト入力を最小限に抑えるアルゴリズムを設計し,再計算のためのメモリ交換を行う。
論文 参考訳(メタデータ) (2023-06-28T13:00:17Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Event Transformer+. A multi-purpose solution for efficient event data
processing [13.648678472312374]
イベントカメラは、高時間分解能と高ダイナミックレンジでスパース照明変化を記録する。
現在の手法は特定のイベントデータ特性を無視することが多く、汎用的だが計算コストのかかるアルゴリズムの開発に繋がる。
本稿では,改良されたパッチベースのイベント表現を用いて,セマンティックな作業EvTを改善するEvent Transformer+を提案する。
論文 参考訳(メタデータ) (2022-11-22T12:28:37Z) - RTFormer: Efficient Design for Real-Time Semantic Segmentation with
Transformer [63.25665813125223]
本稿では,リアルタイムセマンティックセグメンテーションのための効率的なデュアルレゾリューション変換器RTFormerを提案する。
CNNベースのモデルよりもパフォーマンスと効率のトレードオフが優れている。
主要なベンチマーク実験では,提案したRTFormerの有効性を示す。
論文 参考訳(メタデータ) (2022-10-13T16:03:53Z) - Ev-TTA: Test-Time Adaptation for Event-Based Object Recognition [7.814941658661939]
Ev-TTAは、イベントベースのオブジェクト認識のためのシンプルで効果的なテスト時間適応である。
我々の定式化は、入力表現に関係なくうまく適用でき、回帰タスクに拡張できる。
論文 参考訳(メタデータ) (2022-03-23T07:43:44Z) - Towards Data-Efficient Detection Transformers [77.43470797296906]
我々は、ほとんどの検出トランスフォーマーが、小さなデータセットで大きなパフォーマンス低下に悩まされていることを示す。
我々はデータ効率に影響を与える要因を、データ効率のRCNNから代表DETRへのステップバイステップ遷移によって実証的に分析する。
本稿では,よりリッチな監視とデータ効率向上を目的とした,シンプルながら効果的なラベル拡張手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T17:56:34Z) - Time-Ordered Recent Event (TORE) Volumes for Event Cameras [21.419206807872797]
イベントカメラは、非常に低遅延で広いダイナミックレンジの高速イメージングを可能にするエキサイティングで新しいセンサーモダリティです。
ほとんどの機械学習アーキテクチャは、イベントカメラから生成されたスパースデータを直接扱うように設計されていない。
本稿では,時系列最近のイベント(TORE)ボリュームというイベント表現を詳述する。
TOREボリュームは、最小限の情報損失で生のスパイクタイミング情報をコンパクトに格納するように設計されています。
論文 参考訳(メタデータ) (2021-03-10T15:03:38Z) - Dynamic Resource-aware Corner Detection for Bio-inspired Vision Sensors [0.9988653233188148]
本稿では,組込みシステム上でリアルタイムにイベントストリームから非同期コーナーを検出するアルゴリズムを提案する。
提案アルゴリズムは,近隣住民の中から最適なコーナー候補を選択することができ,平均実行時間を59パーセント削減することができる。
論文 参考訳(メタデータ) (2020-10-29T12:01:33Z) - Learning to Detect Objects with a 1 Megapixel Event Camera [14.949946376335305]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジで視覚情報を符号化する。
フィールドの新規性のため、多くのビジョンタスクにおけるイベントベースのシステムの性能は、従来のフレームベースのソリューションに比べて依然として低い。
論文 参考訳(メタデータ) (2020-09-28T16:03:59Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。