論文の概要: AEGNN: Asynchronous Event-based Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2203.17149v1
- Date: Thu, 31 Mar 2022 16:21:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:47:43.529391
- Title: AEGNN: Asynchronous Event-based Graph Neural Networks
- Title(参考訳): AEGNN: 非同期イベントベースのグラフニューラルネットワーク
- Authors: Simon Schaefer, Daniel Gehrig and Davide Scaramuzza
- Abstract要約: イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
- 参考スコア(独自算出の注目度): 54.528926463775946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The best performing learning algorithms devised for event cameras work by
first converting events into dense representations that are then processed
using standard CNNs. However, these steps discard both the sparsity and high
temporal resolution of events, leading to high computational burden and
latency. For this reason, recent works have adopted Graph Neural Networks
(GNNs), which process events as "static" spatio-temporal graphs, which are
inherently "sparse". We take this trend one step further by introducing
Asynchronous, Event-based Graph Neural Networks (AEGNNs), a novel
event-processing paradigm that generalizes standard GNNs to process events as
"evolving" spatio-temporal graphs. AEGNNs follow efficient update rules that
restrict recomputation of network activations only to the nodes affected by
each new event, thereby significantly reducing both computation and latency for
event-by-event processing. AEGNNs are easily trained on synchronous inputs and
can be converted to efficient, "asynchronous" networks at test time. We
thoroughly validate our method on object classification and detection tasks,
where we show an up to a 200-fold reduction in computational complexity
(FLOPs), with similar or even better performance than state-of-the-art
asynchronous methods. This reduction in computation directly translates to an
8-fold reduction in computational latency when compared to standard GNNs, which
opens the door to low-latency event-based processing.
- Abstract(参考訳): イベントカメラのために考案された最高の学習アルゴリズムは、まずイベントを高密度表現に変換し、その後標準cnnで処理することで動作する。
しかし、これらのステップはイベントのスパーシリティと高時間分解の両方を捨て、高い計算負荷とレイテンシをもたらす。
このため、近年の研究では、イベントを「静的」時空間グラフとして処理するグラフニューラルネットワーク(GNN)が採用されている。
AEGNN(Asynchronous, Event-based Graph Neural Networks)は、標準GNNを一般化してイベントを「進化的」時空間グラフとして処理する新しいイベント処理パラダイムである。
AEGNNは、新しいイベント毎に影響を受けるノードにのみネットワークアクティベーションの再計算を制限する効率的な更新ルールに従っている。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
対象の分類および検出タスクにおいて,提案手法を徹底的に検証し,最大200倍の計算量削減(flops)を,最先端の非同期手法と同様の,あるいはさらに優れた性能で示す。
この計算の削減は、標準のGNNと比較して8倍の計算遅延を減少させ、低レイテンシのイベントベースの処理への扉を開く。
関連論文リスト
- Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Cached Operator Reordering: A Unified View for Fast GNN Training [24.917363701638607]
グラフニューラルネットワーク(GNN)は、構造化グラフデータを扱う強力なツールであり、ノード分類、グラフ分類、クラスタリングといったタスクに対処する。
しかし、GNN計算のスパース性は、従来のディープニューラルネットワークと比較してパフォーマンス最適化に新たな課題をもたらす。
GNN計算,I/O,メモリの統一的なビューを提供することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2023-08-23T12:27:55Z) - Asynchronous Algorithmic Alignment with Cocycles [22.993659485873245]
グラフニューラルネットワーク(GNN)におけるメッセージパッシングを利用した最先端のニューラルネットワーク推論
典型的なGNNは、メッセージ関数の定義と呼び出しの区別を曖昧にし、ノードが隣人にメッセージを同期的に送信することを強制する。
本研究では,ノード状態更新とメッセージ関数呼び出しの概念を明確に分離する。
論文 参考訳(メタデータ) (2023-06-27T17:13:20Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Distributed Graph Neural Network Training with Periodic Historical
Embedding Synchronization [9.503080586294406]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワーク、レコメンダシステム、ナレッジグラフなどの様々なアプリケーションで広く使われている。
従来のサンプリングベースの手法は、エッジとノードをドロップすることでGNNを加速し、グラフの整合性とモデル性能を損なう。
本稿では,新しい分散GNNトレーニングフレームワークであるDIstributed Graph Embedding SynchronizaTion (DIGEST)を提案する。
論文 参考訳(メタデータ) (2022-05-31T18:44:53Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。