論文の概要: CERiL: Continuous Event-based Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2302.07667v1
- Date: Wed, 15 Feb 2023 13:58:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 14:57:17.979396
- Title: CERiL: Continuous Event-based Reinforcement Learning
- Title(参考訳): CERiL: 継続的イベントベースの強化学習
- Authors: Celyn Walters, Simon Hadfield
- Abstract要約: 本研究では、環境に対する出力動作の連続ストリームを生成するために、無同期観測の連続ストリームを使用する問題を定式化する。
本稿では、標準RL環境から派生したイベントストリームを学習し、提案した連続時間RL問題を解く方法を提案する。
- 参考スコア(独自算出の注目度): 26.784944204163363
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper explores the potential of event cameras to enable continuous time
reinforcement learning. We formalise this problem where a continuous stream of
unsynchronised observations is used to produce a corresponding stream of output
actions for the environment. This lack of synchronisation enables greatly
enhanced reactivity. We present a method to train on event streams derived from
standard RL environments, thereby solving the proposed continuous time RL
problem. The CERiL algorithm uses specialised network layers which operate
directly on an event stream, rather than aggregating events into quantised
image frames. We show the advantages of event streams over less-frequent RGB
images. The proposed system outperforms networks typically used in RL, even
succeeding at tasks which cannot be solved traditionally. We also demonstrate
the value of our CERiL approach over a standard SNN baseline using event
streams.
- Abstract(参考訳): 本稿では,連続時間強化学習を可能にするイベントカメラの可能性を探る。
我々は、同期しない観測の連続ストリームを使用して、環境に対して対応する出力アクションのストリームを生成する問題を定式化する。
この同期性の欠如により、反応性が大幅に向上する。
本稿では、標準RL環境から派生したイベントストリームを学習し、提案した連続時間RL問題を解く方法を提案する。
CERiLアルゴリズムは、イベントを定量化イメージフレームに集約するのではなく、イベントストリーム上で直接動作する特殊なネットワーク層を使用する。
より頻度の低いRGB画像に対してイベントストリームの利点を示す。
提案システムはRLで使用されるネットワークよりも優れており,従来の課題では解決できない。
また、イベントストリームを用いた標準SNNベースラインに対するCERiLアプローチの価値を示す。
関連論文リスト
- Streaming Deep Reinforcement Learning Finally Works [6.106447284305318]
ストリーミング学習は、リソース制限、通信制限、プライバシに敏感なアプリケーションに理想的だ。
深いRLでは、学習者はたいてい、バッチ更新とバッファの再生を使い、計算コストが高く、ストリーミング学習と互換性がない。
本稿では,バッチRLの予測と制御の両面において,ストリームバリアを克服し,サンプル効率にマッチするストリーム-xアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-18T17:00:29Z) - Representation Learning on Event Stream via an Elastic Net-incorporated
Tensor Network [1.9515859963221267]
本稿では,イベントストリーム中のすべてのイベントのグローバルな相関を同時に取得できる新しい表現法を提案する。
本手法は, 最先端手法と比較して, フィルタノイズなどの応用において有効な結果が得られる。
論文 参考訳(メタデータ) (2024-01-16T02:51:47Z) - EvDNeRF: Reconstructing Event Data with Dynamic Neural Radiance Fields [80.94515892378053]
EvDNeRFは、イベントデータを生成し、イベントベースの動的NeRFをトレーニングするためのパイプラインである。
NeRFは幾何学ベースの学習可能なレンダリングを提供するが、イベントの以前の作業は静的なシーンの再構築のみを考慮していた。
各種イベントのバッチサイズをトレーニングすることにより、微細な時間解像度でイベントのテスト時間予測を改善することができることを示す。
論文 参考訳(メタデータ) (2023-10-03T21:08:41Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Temporal-wise Attention Spiking Neural Networks for Event Streams
Classification [6.623034896340885]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、脳にトリガーされたイベントトリガーコンピューティングモデルである。
本研究では,イベントストリーム処理のためのフレームベース表現学習のための時間的注意SNNモデルを提案する。
TA-SNNモデルはイベントストリーム分類タスクの精度を向上させることを実証する。
論文 参考訳(メタデータ) (2021-07-25T02:28:44Z) - Combining Events and Frames using Recurrent Asynchronous Multimodal
Networks for Monocular Depth Prediction [51.072733683919246]
複数のセンサからの非同期および不規則なデータを処理するために、リカレント非同期マルチモーダル(RAM)ネットワークを導入する。
従来のRNNにインスパイアされたRAMネットワークは、非同期に更新され、予測を生成するためにいつでもクエリできる隠れ状態を維持している。
平均深度絶対誤差において,最先端手法を最大30%改善することを示す。
論文 参考訳(メタデータ) (2021-02-18T13:24:35Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Real-time Classification from Short Event-Camera Streams using
Input-filtering Neural ODEs [17.764474158122038]
イベントベースのカメラは、人間の視覚システムにインスパイアされた、新しくて効率的なセンサーである。
本稿では,DVSカメラからのイベント,強度変化ストリーム,空間座標の直接利用を提案する。
このシーケンスは、新しいエンプレ同期RNN様アーキテクチャ、入力フィルタリングニューラルネットワーク(INODE)の入力として使用される。
論文 参考訳(メタデータ) (2020-04-07T06:58:38Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。