論文の概要: Event-based Temporally Dense Optical Flow Estimation with Sequential
Learning
- arxiv url: http://arxiv.org/abs/2210.01244v2
- Date: Thu, 12 Oct 2023 01:44:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 04:32:02.444076
- Title: Event-based Temporally Dense Optical Flow Estimation with Sequential
Learning
- Title(参考訳): 逐次学習を用いたイベントベース時間密度光フロー推定
- Authors: Wachirawit Ponghiran, Chamika Mihiranga Liyanagedera and Kaushik Roy
- Abstract要約: イベントカメラは、動きのぼやけなく素早く動く物体を捉えます。
本稿では,100Hzの時間密流推定を問題として扱うことにより,時間密流推定が可能であることを示す。
- 参考スコア(独自算出の注目度): 11.026299772309796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras provide an advantage over traditional frame-based cameras when
capturing fast-moving objects without a motion blur. They achieve this by
recording changes in light intensity (known as events), thus allowing them to
operate at a much higher frequency and making them suitable for capturing
motions in a highly dynamic scene. Many recent studies have proposed methods to
train neural networks (NNs) for predicting optical flow from events. However,
they often rely on a spatio-temporal representation constructed from events
over a fixed interval, such as 10Hz used in training on the DSEC dataset. This
limitation restricts the flow prediction to the same interval (10Hz) whereas
the fast speed of event cameras, which can operate up to 3kHz, has not been
effectively utilized. In this work, we show that a temporally dense flow
estimation at 100Hz can be achieved by treating the flow estimation as a
sequential problem using two different variants of recurrent networks -
Long-short term memory (LSTM) and spiking neural network (SNN). First, We
utilize the NN model constructed similar to the popular EV-FlowNet but with
LSTM layers to demonstrate the efficiency of our training method. The model not
only produces 10x more frequent optical flow than the existing ones, but the
estimated flows also have 13% lower errors than predictions from the baseline
EV-FlowNet. Second, we construct an EV-FlowNet SNN but with leaky integrate and
fire neurons to efficiently capture the temporal dynamics. We found that simple
inherent recurrent dynamics of SNN lead to significant parameter reduction
compared to the LSTM model. In addition, because of its event-driven
computation, the spiking model is estimated to consume only 1.5% energy of the
LSTM model, highlighting the efficiency of SNN in processing events and the
potential for achieving temporally dense flow.
- Abstract(参考訳): イベントカメラは、動きのぼけのない動きの速い物体を撮影する場合、従来のフレームベースのカメラよりも有利である。
これにより、光強度の変化(イベントとして知られる)を記録し、より高い周波数で動作させ、非常にダイナミックなシーンで動きを捉えるのに適したものにすることができる。
多くの最近の研究では、イベントからの光の流れを予測するためにニューラルネットワーク(NN)を訓練する方法が提案されている。
しかし、それらはしばしば、DSECデータセットのトレーニングで使用される10Hzのような、一定間隔でイベントから構築された時空間表現に依存している。
この制限は、フロー予測を同じ間隔 (10Hz) に制限するが、最大3kHzまで動作可能なイベントカメラの速度は有効に利用されていない。
本研究では,100Hzにおける時間的に密度の高い流れ推定を,2つの異なるLSTM(Long-Short term memory)とスパイキングニューラルネットワーク(SNN)を用いて逐次問題として扱うことにより実現可能であることを示す。
まず,一般的なev-flownetと類似したnnモデルを用いて,lstm層を用いて学習手法の効率を示す。
このモデルは、既存のものよりも10倍頻繁に光学フローを生成するだけでなく、推定フローはベースラインev-flownetの予測よりも13%低い誤差を持つ。
第二に、EV-FlowNet SNNを構築するが、漏れやすい統合と、時間的ダイナミクスを効率的に捉えるためにニューロンを発射する。
LSTMモデルと比較すると,SNNの単純固有リカレントダイナミクスはパラメータ低減に大きく寄与することがわかった。
さらに、そのイベント駆動計算により、スパイキングモデルはLSTMモデルのわずか1.5%のエネルギーしか消費せず、処理イベントにおけるSNNの効率と時間的に密度の高いフローを達成する可能性を強調している。
関連論文リスト
- Trajectory Flow Matching with Applications to Clinical Time Series Modeling [77.58277281319253]
Trajectory Flow Matching (TFM) は、シミュレーションのない方法でニューラルSDEを訓練し、ダイナミックスを通してバックプロパゲーションをバイパスする。
絶対的性能と不確実性予測の観点から,3つの臨床時系列データセットの性能向上を実証した。
論文 参考訳(メタデータ) (2024-10-28T15:54:50Z) - SDformerFlow: Spatiotemporal swin spikeformer for event-based optical flow estimation [10.696635172502141]
イベントカメラは、光強度の変化をキャプチャする非同期でスパースなイベントストリームを生成する。
スパイキングニューラルネットワーク(SNN)も同様の非同期特性とスパース特性を共有しており、イベントカメラに適している。
本稿では,STTFlowNetとSDFlowformerという,高速かつ堅牢なイベントカメラ用光フロー推定手法を提案する。
論文 参考訳(メタデータ) (2024-09-06T07:48:18Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Optical flow estimation from event-based cameras and spiking neural
networks [0.4899818550820575]
イベントベースセンサーはスパイキングニューラルネットワーク(SNN)に最適である
教師付きトレーニング後,高密度光フロー推定が可能なU-NetライクなSNNを提案する。
分離可能な畳み込みにより、我々は、合理的に正確な光フロー推定が得られる光モデルを開発することができた。
論文 参考訳(メタデータ) (2023-02-13T16:17:54Z) - Adaptive-SpikeNet: Event-based Optical Flow Estimation using Spiking
Neural Networks with Learnable Neuronal Dynamics [6.309365332210523]
ニューラルインスパイアされたイベント駆動処理でニューラルネットワーク(SNN)をスパイクすることで、非同期データを効率的に処理できる。
スパイク消滅問題を緩和するために,学習可能な神経力学を用いた適応型完全スパイキングフレームワークを提案する。
実験の結果,平均終端誤差(AEE)は最先端のANNと比較して平均13%減少した。
論文 参考訳(メタデータ) (2022-09-21T21:17:56Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Ultra-low Latency Spiking Neural Networks with Spatio-Temporal
Compression and Synaptic Convolutional Block [4.081968050250324]
スパイキングニューラルネットワーク(SNN)は、神経時間情報能力、低処理機能、高い生物学的妥当性を有する。
Neuro-MNIST、CIFAR10-S、DVS128ジェスチャデータセットは、個々のイベントをフレームに集約し、イベントストリーム分類の時間分解能を高める必要がある。
本研究では,NIST電流の時間ステップに個々のイベントを集約し,トレーニングや推論の遅延を低減する処理時間圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-03-18T15:14:13Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Spike-FlowNet: Event-based Optical Flow Estimation with Energy-Efficient
Hybrid Neural Networks [40.44712305614071]
本稿では,SNNとANNを統合したディープハイブリッドニューラルネットワークアーキテクチャであるSpike-FlowNetを提案する。
このネットワークは、MVSEC(Multi-Vehicle Stereo Event Camera)データセット上で、セルフ教師付き学習でエンドツーエンドにトレーニングされている。
論文 参考訳(メタデータ) (2020-03-14T20:37:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。