論文の概要: Event-based Graph Representation with Spatial and Motion Vectors for Asynchronous Object Detection
- arxiv url: http://arxiv.org/abs/2507.15150v1
- Date: Sun, 20 Jul 2025 23:02:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.216239
- Title: Event-based Graph Representation with Spatial and Motion Vectors for Asynchronous Object Detection
- Title(参考訳): 非同期物体検出のための空間ベクトルと運動ベクトルを用いたイベントベースグラフ表現
- Authors: Aayush Atul Verma, Arpitsinh Vaghela, Bharatesh Chakravarthi, Kaustav Chanda, Yezhou Yang,
- Abstract要約: イベントベースのセンサは、高時間分解能と不規則レイテンシを提供する。
このデータを高密度テンソルに変換することで、標準的なニューラルネットワークでの使用は、これらの固有の利点を減らします。
本稿では,空間構造と時間的変化をよりよく捉えるために,新しい多面的表現を提案する。
- 参考スコア(独自算出の注目度): 20.537672896807063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event-based sensors offer high temporal resolution and low latency by generating sparse, asynchronous data. However, converting this irregular data into dense tensors for use in standard neural networks diminishes these inherent advantages, motivating research into graph representations. While such methods preserve sparsity and support asynchronous inference, their performance on downstream tasks remains limited due to suboptimal modeling of spatiotemporal dynamics. In this work, we propose a novel spatiotemporal multigraph representation to better capture spatial structure and temporal changes. Our approach constructs two decoupled graphs: a spatial graph leveraging B-spline basis functions to model global structure, and a temporal graph utilizing motion vector-based attention for local dynamic changes. This design enables the use of efficient 2D kernels in place of computationally expensive 3D kernels. We evaluate our method on the Gen1 automotive and eTraM datasets for event-based object detection, achieving over a 6% improvement in detection accuracy compared to previous graph-based works, with a 5x speedup, reduced parameter count, and no increase in computational cost. These results highlight the effectiveness of structured graph modeling for asynchronous vision. Project page: eventbasedvision.github.io/eGSMV.
- Abstract(参考訳): イベントベースのセンサは、疎結合で非同期なデータを生成することで、高時間分解能と低レイテンシを提供する。
しかし、この不規則データを高密度テンソルに変換して標準ニューラルネットワークで使用すると、これらの固有の利点を減らし、グラフ表現の研究を動機付ける。
このような手法は間隔を保ち、非同期推論をサポートするが、時空間力学の最適部分モデリングのため、下流タスクのパフォーマンスは制限されている。
本研究では,空間構造と時間変化をよりよく捉えるために,新しい時空間多重グラフ表現を提案する。
提案手法は,B-スプライン基底関数を用いて大域構造をモデル化する空間グラフと,局所的動的変化に対する運動ベクトルに基づく注意を利用した時間グラフの2つの分離グラフを構築する。
この設計により、計算コストのかかる3Dカーネルの代わりに効率的な2Dカーネルを使用できる。
イベントベースオブジェクト検出のためのGen1 AutomotiveおよびeTraMデータセットについて,従来のグラフベース処理と比較して6%以上の精度向上を実現し,5倍の高速化,パラメータ数削減,計算コストの増大を図った。
これらの結果は,非同期ビジョンのための構造化グラフモデリングの有効性を浮き彫りにした。
プロジェクトページ: eventbasedvision.github.io/eGSMV
関連論文リスト
- Dynamic Graph Induced Contour-aware Heat Conduction Network for Event-based Object Detection [42.021851148914145]
イベントベースのビジョンセンサー(EVS)は、低照度環境で従来のRGBフレームベースのカメラに対して大きな優位性を示している。
本稿では,イベントストリームに基づく物体検出のための動的グラフ誘導輪郭対応熱伝導ネットワークを提案する。
論文 参考訳(メタデータ) (2025-05-19T09:44:01Z) - Attention-based Dynamic Graph Convolutional Recurrent Neural Network for
Traffic Flow Prediction in Highway Transportation [0.6650227510403052]
高速道路交通における交通流予測を改善するために,注意に基づく動的グラフ畳み込みリカレントニューラルネットワーク(ADG-N)を提案する。
グラフ畳み込み演算のオーバーフィッティングを低減するために、高い相対ノードを強調する専用ゲートカーネルが完全なグラフ上に導入された。
論文 参考訳(メタデータ) (2023-09-13T13:57:21Z) - From random-walks to graph-sprints: a low-latency node embedding
framework on continuous-time dynamic graphs [4.372841335228306]
本稿では,レイテンシが低く,最先端の高レイテンシモデルと競合する連続時間動的グラフ(CTDG)のフレームワークを提案する。
本フレームワークでは,マルチホップ情報を要約したタイムアウェアノード埋め込みを,入ってくるエッジ上のシングルホップ操作のみを用いて計算する。
グラフプリント機能と機械学習を組み合わせることで,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2023-07-17T12:25:52Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Pushing the Limits of Asynchronous Graph-based Object Detection with
Event Cameras [62.70541164894224]
低計算を維持しながら、そのようなモデルの深さと複雑さを拡大できるアーキテクチャ選択をいくつか導入する。
我々の手法は、密度の高いグラフニューラルネットワークよりも3.7倍高速に動作し、前方通過はわずか8.4msである。
論文 参考訳(メタデータ) (2022-11-22T15:14:20Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - Spatial-Temporal Adaptive Graph Convolution with Attention Network for
Traffic Forecasting [4.1700160312787125]
交通予測のための新しいネットワークである空間時間適応グラフ畳み込み(STAAN)を提案する。
まず,GCN処理中に事前に定義された行列を使わずに適応的依存行列を採用し,ノード間の依存性を推定する。
第2に,グローバルな依存のために設計されたグラフアテンションネットワークに基づくPWアテンションと,空間ブロックとしてのGCNを統合した。
論文 参考訳(メタデータ) (2022-06-07T09:08:35Z) - Efficient-Dyn: Dynamic Graph Representation Learning via Event-based
Temporal Sparse Attention Network [2.0047096160313456]
動的グラフニューラルネットワークは、研究者からますます注目を集めている。
本稿では,新しい動的グラフニューラルネットワークであるEfficient-Dynを提案する。
時間的情報を同じ量の時間的トポロジ的構造を持つパッチのシーケンスに適応的に符号化する。
論文 参考訳(メタデータ) (2022-01-04T23:52:24Z) - Spatio-Temporal Graph Scattering Transform [54.52797775999124]
グラフニューラルネットワークは、十分な高品質のトレーニングデータがないために、現実のシナリオでは実用的ではないかもしれない。
我々は時間的データを解析するための数学的に設計された新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2020-12-06T19:49:55Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。