論文の概要: Benchmarking Microsaccade Recognition with Event Cameras: A Novel Dataset and Evaluation
- arxiv url: http://arxiv.org/abs/2510.24231v1
- Date: Tue, 28 Oct 2025 09:41:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.99367
- Title: Benchmarking Microsaccade Recognition with Event Cameras: A Novel Dataset and Evaluation
- Title(参考訳): イベントカメラによるマイクロサケード認識のベンチマーク:新しいデータセットと評価
- Authors: Waseem Shariff, Timothy Hanley, Maciej Stec, Hossein Javidnia, Peter Corcoran,
- Abstract要約: マイクロサケードは、視覚知覚や神経処理に不可欠な小さな不随意眼球運動である。
イベントベースのセンシングは、微細な時間変化を効率的にキャプチャすることで、高速で低レイテンシな代替手段を提供する。
このデータセットは、認知コンピューティングにおける小さな眼球運動ダイナミクスの研究を支援する。
- 参考スコア(独自算出の注目度): 4.497527935481453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Microsaccades are small, involuntary eye movements vital for visual perception and neural processing. Traditional microsaccade studies typically use eye trackers or frame-based analysis, which, while precise, are costly and limited in scalability and temporal resolution. Event-based sensing offers a high-speed, low-latency alternative by capturing fine-grained spatiotemporal changes efficiently. This work introduces a pioneering event-based microsaccade dataset to support research on small eye movement dynamics in cognitive computing. Using Blender, we render high-fidelity eye movement scenarios and simulate microsaccades with angular displacements from 0.5 to 2.0 degrees, divided into seven distinct classes. These are converted to event streams using v2e, preserving the natural temporal dynamics of microsaccades, with durations ranging from 0.25 ms to 2.25 ms. We evaluate the dataset using Spiking-VGG11, Spiking-VGG13, and Spiking-VGG16, and propose Spiking-VGG16Flow, an optical-flow-enhanced variant implemented in SpikingJelly. The models achieve around 90 percent average accuracy, successfully classifying microsaccades by angular displacement, independent of event count or duration. These results demonstrate the potential of spiking neural networks for fine motion recognition and establish a benchmark for event-based vision research. The dataset, code, and trained models will be publicly available at https://waseemshariff126.github.io/microsaccades/ .
- Abstract(参考訳): マイクロサケードは、視覚知覚や神経処理に不可欠な小さな不随意眼球運動である。
従来のマイクロサケードの研究は、一般的にアイトラッカーやフレームベースの分析を用いるが、精度は高く、スケーラビリティや時間分解能に制限がある。
イベントベースセンシングは、微細な時空間変化を効率的にキャプチャすることで、高速で低レイテンシな代替手段を提供する。
この研究は、認知コンピューティングにおける小さな眼球運動ダイナミクスの研究を支援する、イベントベースのマイクロサケードデータセットのパイオニアを紹介する。
Blenderを用いて、高忠実度眼球運動のシナリオを描画し、0.5度から2.0度の角度変位を持つマイクロサケードをシミュレートし、7つの異なるクラスに分けた。
我々はSpking-VGG11, Spiking-VGG13, Spiking-VGG16を用いてデータセットを評価し,Spking-VGG16Flowを提案する。
モデルの平均精度は約90%で、イベント数や期間によらず、角変位によってマイクロサケードを分類することに成功している。
これらの結果は、微動認識のためのニューラルネットワークのスパイクの可能性を示し、イベントベースの視覚研究のためのベンチマークを確立する。
データセット、コード、トレーニングされたモデルはhttps://waseemshariff126.github.io/microsaccades/で公開される。
関連論文リスト
- SpikeGrasp: A Benchmark for 6-DoF Grasp Pose Detection from Stereo Spike Streams [57.84331423686738]
ほとんどのロボットの把握システムは、センサーデータを明示的な3Dポイントの雲に変換することに依存しており、これは生物学的知性には見つからない計算ステップである。
生体振動子経路を模倣するフレームワークであるSpikeGraspを導入し、立体スパイクカメラから生の非同期イベントを処理する。
我々のモデルは、これらのステレオスパイクストリームを融合させ、高レベルの視覚処理に類似した繰り返しスパイクニューラルネットワークを使用して、点雲を再構築することなく、把握仮説を反復的に洗練する。
論文 参考訳(メタデータ) (2025-10-12T13:36:40Z) - Exploring Spatial-Temporal Dynamics in Event-based Facial Micro-Expression Analysis [0.0]
我々は,RGBとイベントカメラを同期して記録した,新しい,予備的なマルチレゾリューションおよびマルチモーダルマイクロ圧縮データセットを提案する。
イベントベースのデータは,マイクロ圧縮認識やフレーム再構成に利用できることを示す。
論文 参考訳(メタデータ) (2025-08-16T09:03:20Z) - Low-power event-based face detection with asynchronous neuromorphic
hardware [2.0774873363739985]
本稿では、SynSense Speckニューロモルフィックチップ上に展開されたイベントベースの顔検出のためのオンチップスパイクニューラルネットワークの最初の例を示す。
トレーニングに用いるオフチップクロック駆動シミュレーションとオンチップイベント駆動推論との精度の相違について述べる。
オンチップ顔検出のmAP[0.5]は0.6で、20mWしか消費しない。
論文 参考訳(メタデータ) (2023-12-21T19:23:02Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - TinyAD: Memory-efficient anomaly detection for time series data in
Industrial IoT [43.207210990362825]
我々は,リアルタイムな異常検出のためのCNNのオンボード推論を効率的に行うための,Tiny Anomaly Detection (TinyAD) という新しいフレームワークを提案する。
CNNのピークメモリ消費を低減するため、我々は2つの相補的戦略、 in-place と patch-by-patch のメモリ再スケジューリングについて検討する。
我々のフレームワークは、オーバーヘッドを無視してピークメモリ消費を2~5倍削減できる。
論文 参考訳(メタデータ) (2023-03-07T02:56:15Z) - Recurrent Vision Transformers for Object Detection with Event Cameras [62.27246562304705]
本稿では,イベントカメラを用いた物体検出のための新しいバックボーンであるリカレントビジョントランス (RVT) を提案する。
RVTは、イベントベースのオブジェクト検出で最先端のパフォーマンスに到達するために、ゼロからトレーニングすることができる。
私たちの研究は、イベントベースのビジョンを超えた研究に役立ち得る効果的なデザイン選択に、新たな洞察をもたらします。
論文 参考訳(メタデータ) (2022-12-11T20:28:59Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。