論文の概要: EvRainDrop: HyperGraph-guided Completion for Effective Frame and Event Stream Aggregation
- arxiv url: http://arxiv.org/abs/2511.21439v1
- Date: Wed, 26 Nov 2025 14:30:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.144942
- Title: EvRainDrop: HyperGraph-guided Completion for Effective Frame and Event Stream Aggregation
- Title(参考訳): EvRainDrop: 効果的なフレームとイベントストリームアグリゲーションのためのハイパーグラフ誘導コンプリート
- Authors: Futian Wang, Fan Zhang, Xiao Wang, Mengqi Wang, Dexing Huang, Jin Tang,
- Abstract要約: イベントカメラは、空間的に疎いが時間的に密な非同期イベントストリームを生成する。
本稿では,異なる時刻と場所のトークンを接続するハイパーグラフ誘導イベントストリーム補完機構を提案する。
提案手法は,マルチモーダルなハイパーグラフ情報補完を実現するために,ハイパーグラフのノードとしてRGBトークンを柔軟に組み込むことができる。
- 参考スコア(独自算出の注目度): 13.258464981482788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras produce asynchronous event streams that are spatially sparse yet temporally dense. Mainstream event representation learning algorithms typically use event frames, voxels, or tensors as input. Although these approaches have achieved notable progress, they struggle to address the undersampling problem caused by spatial sparsity. In this paper, we propose a novel hypergraph-guided spatio-temporal event stream completion mechanism, which connects event tokens across different times and spatial locations via hypergraphs and leverages contextual information message passing to complete these sparse events. The proposed method can flexibly incorporate RGB tokens as nodes in the hypergraph within this completion framework, enabling multi-modal hypergraph-based information completion. Subsequently, we aggregate hypergraph node information across different time steps through self-attention, enabling effective learning and fusion of multi-modal features. Extensive experiments on both single- and multi-label event classification tasks fully validated the effectiveness of our proposed framework. The source code of this paper will be released on https://github.com/Event-AHU/EvRainDrop.
- Abstract(参考訳): イベントカメラは、空間的に疎いが時間的に密な非同期イベントストリームを生成する。
メインストリームのイベント表現学習アルゴリズムは通常、イベントフレーム、ボクセル、テンソルを入力として使用する。
これらのアプローチは顕著な進歩を遂げてきたが、空間空間の空間的空間性に起因するアンダーサンプリング問題に対処するのに苦労している。
本稿では,ハイパーグラフを介し,時間と空間の異なる場所をまたいだイベントトークンを接続し,コンテキスト情報によるメッセージパッシングを利用して,これらのスパースイベントを補完する,ハイパーグラフ誘導時空間イベントストリーム補完機構を提案する。
提案手法は,マルチモーダルなハイパーグラフ情報補完を実現するために,ハイパーグラフのノードとしてRGBトークンを柔軟に組み込むことができる。
その後,複数の時間ステップにまたがるハイパーグラフノード情報を自己注意により集約し,効果的な学習とマルチモーダルな特徴の融合を可能にする。
シングルラベルとマルチラベルのイベント分類タスクの広範な実験により,提案フレームワークの有効性が完全に検証された。
この論文のソースコードはhttps://github.com/Event-AHU/EvRainDrop.comで公開される。
関連論文リスト
- EventSTU: Event-Guided Efficient Spatio-Temporal Understanding for Video Large Language Models [56.16721798968254]
本研究では,EventSTUという,効率的な理解のためのイベント誘導学習自由フレームワークを提案する。
時間領域において、不要な大フレームを除去するために、イベントカメラのトリガー特性を変化させる粗大なサンプリングアルゴリズムを設計する。
空間領域では,イベントの正当性をゼロコストとして活用し,空間的縮小を誘導する適応的トークンプルーニングアルゴリズムを実現する。
論文 参考訳(メタデータ) (2025-11-24T09:30:02Z) - SuperEvent: Cross-Modal Learning of Event-based Keypoint Detection for SLAM [12.405502383018023]
SuperEventは、表現力のある記述子で安定したキーポイントを予測するための、データ駆動のアプローチである。
我々は SuperEvent を,現代的なスパースキーポイントとディスクリプタベースのSLAM フレームワークに統合することで,その有用性を実証する。
論文 参考訳(メタデータ) (2025-03-31T18:46:02Z) - Instance-Aware Graph Prompt Learning [71.26108600288308]
本稿では,インスタンス対応グラフプロンプト学習(IA-GPL)について紹介する。
このプロセスでは、軽量アーキテクチャを使用して各インスタンスの中間プロンプトを生成する。
複数のデータセットと設定で実施された実験は、最先端のベースラインと比較して、IA-GPLの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-26T18:38:38Z) - Representation Learning on Event Stream via an Elastic Net-incorporated
Tensor Network [1.9515859963221267]
本稿では,イベントストリーム中のすべてのイベントのグローバルな相関を同時に取得できる新しい表現法を提案する。
本手法は, 最先端手法と比較して, フィルタノイズなどの応用において有効な結果が得られる。
論文 参考訳(メタデータ) (2024-01-16T02:51:47Z) - Graph-based Asynchronous Event Processing for Rapid Object Recognition [59.112755601918074]
イベントカメラは、各イベントがピクセル位置、トリガ時間、明るさの極性が変化するような非同期イベントストリームをキャプチャする。
イベントカメラのための新しいグラフベースのフレームワーク、SlideGCNを紹介した。
当社のアプローチでは、データをイベント単位で効率的に処理し、内部でグラフの構造を維持しながら、イベントデータの低レイテンシ特性を解放することが可能です。
論文 参考訳(メタデータ) (2023-08-28T08:59:57Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Continuous-time convolutions model of event sequences [46.3471121117337]
イベントシーケンスは不均一でスパースであり、従来のモデルは不適当である。
我々は、時間とともに一様でない事象の発生を処理するために設計された効率的な畳み込みニューラルネットワークに基づくCOTICを提案する。
COTICは、次のイベント時間とタイプを予測する際に既存のモデルよりも優れており、最も近いライバルの3.714と比較して平均1.5のランクに達している。
論文 参考訳(メタデータ) (2023-02-13T10:34:51Z) - Event Transformer [43.193463048148374]
イベントカメラの消費電力が低く、マイクロ秒の明るさを捉える能力は、様々なコンピュータビジョンタスクにとって魅力的である。
既存のイベント表現方法は通常、イベントをフレーム、ボクセルグリッド、ディープニューラルネットワーク(DNN)のスパイクに変換する。
この研究はトークンベースの新しいイベント表現を導入し、各イベントはイベントトークンと呼ばれる基本的な処理ユニットと見なされる。
論文 参考訳(メタデータ) (2022-04-11T15:05:06Z) - Learning Multi-Granular Hypergraphs for Video-Based Person
Re-Identification [110.52328716130022]
ビデオベースの人物識別(re-ID)はコンピュータビジョンにおいて重要な研究課題である。
MGH(Multi-Granular Hypergraph)という新しいグラフベースのフレームワークを提案する。
MARSの90.0%のトップ-1精度はMGHを用いて達成され、最先端のスキームよりも優れていた。
論文 参考訳(メタデータ) (2021-04-30T11:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。