論文の概要: Representation Learning on Event Stream via an Elastic Net-incorporated
Tensor Network
- arxiv url: http://arxiv.org/abs/2401.08068v1
- Date: Tue, 16 Jan 2024 02:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 15:10:44.945898
- Title: Representation Learning on Event Stream via an Elastic Net-incorporated
Tensor Network
- Title(参考訳): 弾性ネット型テンソルネットワークによるイベントストリームの表現学習
- Authors: Beibei Yang, Weiling Li, Yan Fang
- Abstract要約: 本稿では,イベントストリーム中のすべてのイベントのグローバルな相関を同時に取得できる新しい表現法を提案する。
本手法は, 最先端手法と比較して, フィルタノイズなどの応用において有効な結果が得られる。
- 参考スコア(独自算出の注目度): 1.9515859963221267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras are neuromorphic sensors that capture asynchronous and sparse
event stream when per-pixel brightness changes. The state-of-the-art processing
methods for event signals typically aggregate events into a frame or a grid.
However, events are dense in time, these works are limited to local information
of events due to the stacking. In this paper, we present a novel spatiotemporal
representation learning method which can capture the global correlations of all
events in the event stream simultaneously by tensor decomposition. In addition,
with the events are sparse in space, we propose an Elastic Net-incorporated
tensor network (ENTN) model to obtain more spatial and temporal details about
event stream. Empirically, the results indicate that our method can represent
the spatiotemporal correlation of events with high quality, and can achieve
effective results in applications like filtering noise compared with the
state-of-the-art methods.
- Abstract(参考訳): イベントカメラは、ピクセル毎の明るさ変化時に非同期でスパースなイベントストリームをキャプチャするニューロモルフィックセンサーである。
イベント信号の最先端処理方法は通常、イベントをフレームやグリッドに集約する。
しかし、イベントは時間的に密集しており、これらの作品は積み重ねによるイベントのローカル情報に限定されている。
本稿では,テンソル分解によりイベントストリーム中のすべての事象のグローバルな相関を同時に捉えることのできる,新しい時空間表現学習法を提案する。
さらに,イベントが空間的に疎結合である場合,イベントストリームのより空間的,時間的詳細を求めるために,Elastic Net-Incorporated Tenor Network (ENTN)モデルを提案する。
実験により, 提案手法は高品質な事象の時空間相関を表現でき, フィルタノイズなどの応用において, 最先端の手法と比較して有効であることを示す。
関連論文リスト
- Fast Window-Based Event Denoising with Spatiotemporal Correlation
Enhancement [85.66867277156089]
同時にイベントのスタックを扱うウィンドウベースのイベントデノゲーションを提案する。
空間領域では、実世界の事象と雑音を識別するために、最大後部(MAP)を選択する。
我々のアルゴリズムは、イベントノイズを効果的かつ効率的に除去し、下流タスクの性能を向上させることができる。
論文 参考訳(メタデータ) (2024-02-14T15:56:42Z) - An Event-Oriented Diffusion-Refinement Method for Sparse Events
Completion [36.64856578682197]
イベントカメラまたはダイナミックビジョンセンサー(DVS)は、従来の強度フレームの代わりに輝度の変化に対する非同期応答を記録する。
本稿では,処理段階と出力形態の両方において,イベントデータのユニークな特性に適合するイベント完了シーケンス手法を提案する。
具体的には,イベントストリームを時間領域内の3次元イベントクラウドとして扱うとともに,高密度の雲を粗大に生成する拡散モデルを構築し,正確なタイムスタンプを復元して生データの時間分解を成功させる。
論文 参考訳(メタデータ) (2024-01-06T08:09:54Z) - EvDNeRF: Reconstructing Event Data with Dynamic Neural Radiance Fields [80.94515892378053]
EvDNeRFは、イベントデータを生成し、イベントベースの動的NeRFをトレーニングするためのパイプラインである。
NeRFは幾何学ベースの学習可能なレンダリングを提供するが、イベントの以前の作業は静的なシーンの再構築のみを考慮していた。
各種イベントのバッチサイズをトレーニングすることにより、微細な時間解像度でイベントのテスト時間予測を改善することができることを示す。
論文 参考訳(メタデータ) (2023-10-03T21:08:41Z) - Generalizing Event-Based Motion Deblurring in Real-World Scenarios [62.995994797897424]
イベントベースの動作遅延は、低レイテンシイベントを活用することで、有望な結果を示している。
本研究では,フレキシブルな入力空間スケールを実現するとともに,時間スケールの異なる動きのぼかしから学習できるスケール対応ネットワークを提案する。
次に,実世界のデータ分布に適合する2段階の自己教師型学習手法を開発した。
論文 参考訳(メタデータ) (2023-08-11T04:27:29Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Event Voxel Set Transformer for Spatiotemporal Representation Learning
on Event Streams [23.872611710730865]
イベントカメラは、視覚情報をスパースおよび非同期イベントストリームとして表現するニューロモルフィック視覚センサである。
本研究では,イベントストリーム上での表現学習のためのイベントVoxel Set Transformer (EVSTr) という新しい注意認識モデルを開発した。
オブジェクト分類と行動認識という2つのイベントベース認識タスクにおいて,提案したモデルを評価する。
論文 参考訳(メタデータ) (2023-03-07T12:48:02Z) - CERiL: Continuous Event-based Reinforcement Learning [26.784944204163363]
本研究では、環境に対する出力動作の連続ストリームを生成するために、無同期観測の連続ストリームを使用する問題を定式化する。
本稿では、標準RL環境から派生したイベントストリームを学習し、提案した連続時間RL問題を解く方法を提案する。
論文 参考訳(メタデータ) (2023-02-15T13:58:02Z) - Event Transformer [37.18171320405741]
イベントカメラは、(空間内で)非同期に(時間内で)ピクセルの明るさ変化(時間軸、イベント)を記録する
この研究は、イベントシーケンスをネイティブベクトル化テンソルフォーマットで処理するEvent Transformerを提案する。
局所的な時間的相関を利用するローカルトランスフォーマー(LXformer)、局所的な空間的類似性を埋め込むSコンフォーマー(SCformer)、グローバル情報をさらに集約するグローバルトランスフォーマー(GXformer)をカスケードする。
論文 参考訳(メタデータ) (2022-04-11T15:05:06Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Temporal-wise Attention Spiking Neural Networks for Event Streams
Classification [6.623034896340885]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、脳にトリガーされたイベントトリガーコンピューティングモデルである。
本研究では,イベントストリーム処理のためのフレームベース表現学習のための時間的注意SNNモデルを提案する。
TA-SNNモデルはイベントストリーム分類タスクの精度を向上させることを実証する。
論文 参考訳(メタデータ) (2021-07-25T02:28:44Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。