論文の概要: Locally Adaptive Decay Surfaces for High-Speed Face and Landmark Detection with Event Cameras
- arxiv url: http://arxiv.org/abs/2602.23101v1
- Date: Thu, 26 Feb 2026 15:16:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.74408
- Title: Locally Adaptive Decay Surfaces for High-Speed Face and Landmark Detection with Event Cameras
- Title(参考訳): イベントカメラを用いた高速顔・ランドマーク検出のための局所適応型減衰面
- Authors: Paul Kielty, Timothy Hanley, Peter Corcoran,
- Abstract要約: イベントカメラは、マイクロ秒解像度で輝度変化を記録する。
疎結合で非同期な出力を、ニューラルネットワークが活用できる高密度テンソルに変換することは、依然として重要な課題である。
局所適応型減衰面(LADS)は,各位置における時間減衰を局所信号のダイナミクスに応じて変調する事象表現系である。
- 参考スコア(独自算出の注目度): 2.467339701756281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras record luminance changes with microsecond resolution, but converting their sparse, asynchronous output into dense tensors that neural networks can exploit remains a core challenge. Conventional histograms or globally-decayed time-surface representations apply fixed temporal parameters across the entire image plane, which in practice creates a trade-off between preserving spatial structure during still periods and retaining sharp edges during rapid motion. We introduce Locally Adaptive Decay Surfaces (LADS), a family of event representations in which the temporal decay at each location is modulated according to local signal dynamics. Three strategies are explored, based on event rate, Laplacian-of-Gaussian response, and high-frequency spectral energy. These adaptive schemes preserve detail in quiescent regions while reducing blur in regions of dense activity. Extensive experiments on the public data show that LADS consistently improves both face detection and facial landmark accuracy compared to standard non-adaptive representations. At 30 Hz, LADS achieves higher detection accuracy and lower landmark error than either baseline, and at 240 Hz it mitigates the accuracy decline typically observed at higher frequencies, sustaining 2.44 % normalized mean error for landmarks and 0.966 mAP50 in face detection. These high-frequency results even surpass the accuracy reported in prior works operating at 30 Hz, setting new benchmarks for event-based face analysis. Moreover, by preserving spatial structure at the representation stage, LADS supports the use of much lighter network architectures while still retaining real-time performance. These results highlight the importance of context-aware temporal integration for neuromorphic vision and point toward real-time, high-frequency human-computer interaction systems that exploit the unique advantages of event cameras.
- Abstract(参考訳): イベントカメラは、マイクロ秒の解像度で輝度変化を記録するが、そのスパースで非同期な出力を、ニューラルネットワークが活用できる高密度テンソルに変換することは、依然として重要な課題である。
従来のヒストグラムやグローバルデカイされた時間表面の表現は、画像平面全体にわたって一定時間パラメータを適用し、実際には静止した期間に空間構造を保存することと、急激な動きの間に鋭いエッジを保持することの間のトレードオフを生じる。
局所適応型減衰面(LADS)は,各位置における時間減衰を局所信号のダイナミクスに応じて変調する事象表現系である。
イベントレート、ラプラシア・オブ・ガウス反応、高周波スペクトルエネルギーに基づく3つの戦略について検討した。
これらの適応的なスキームは、高密度な活動領域のぼやけを低減しつつ、平衡領域の細部を保存している。
公開データに対する大規模な実験により、LADSは通常の非適応表現と比較して、顔検出と顔の目印精度を一貫して改善することが示された。
30Hzでは、LADSはどちらのベースラインよりも高い検出精度と低いランドマーク誤差を達成し、240Hzでは高い周波数で観測される精度の低下を緩和し、ランドマークの平均誤差は2.44 %、顔検出では0.966 mAP50である。
これらの高周波結果は、30Hzで動作する以前の作業で報告された精度を超え、イベントベースの顔分析のための新しいベンチマークを設定した。
さらに、表現段階で空間構造を保存することにより、LADSはリアルタイム性能を維持しながら、より軽量なネットワークアーキテクチャの使用をサポートする。
これらの結果は、イベントカメラのユニークな利点を生かした、ニューロモルフィックな視覚に対する文脈対応の時間統合の重要性と、リアルタイムで高周波な人-コンピュータインタラクションシステムへの視点を強調している。
関連論文リスト
- Event-based Visual Deformation Measurement [76.25283405575108]
視覚的変形測定は、カメラ観測から表面の動きを追跡することによって、高密度な変形場を復元することを目的としている。
従来の画像ベースの手法は、対応検索空間を制限するため、最小限のフレーム間動作に依存している。
本研究では,時間的に密集した動きキューやフレームのイベントを利用して,空間的に密集した正確な推定を行うイベントフレーム融合フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-16T01:04:48Z) - HoloEv-Net: Efficient Event-based Action Recognition via Holographic Spatial Embedding and Global Spectral Gating [0.571097144710995]
イベントベース行動認識(EAR)は,高時間分解能と高ダイナミックレンジのイベントカメラにより注目されている。
既存の手法は, (i) 密度ボクセル表現の計算冗長性, (ii) マルチブランチアーキテクチャに固有の構造冗長性, (iii) グローバルな動きパターンを捉えるためのスペクトル情報の未利用性に悩まされている。
論文 参考訳(メタデータ) (2026-02-04T03:42:42Z) - SirenPose: Dynamic Scene Reconstruction via Geometric Supervision [12.966077380225856]
本稿では,鍵点に基づく幾何監督と特性正弦波表現ネットワークの周期的活性化を統合した幾何認識損失定式化であるSirenPoseを紹介する。
ポーズ推定において、SirenPoseは、絶対軌道誤差の低いMonst3Rと、変換および回転相対ポーズ誤差の低減で性能を向上する。
論文 参考訳(メタデータ) (2025-12-23T17:23:21Z) - FlexEvent: Towards Flexible Event-Frame Object Detection at Varying Operational Frequencies [59.10607296658509]
イベントカメラは、動的環境におけるリアルタイムの知覚に相容れないアドバンテージを提供する。
イベント検出器は固定周波数のパラダイムによって制限されており、イベントデータの高時間分解能と適応性を完全に活用できない。
我々は、様々な周波数で検出できる新しいフレームワークFlexEventを提案する。
論文 参考訳(メタデータ) (2024-12-09T17:57:14Z) - PASS: Path-selective State Space Model for Event-based Recognition [12.651829415097758]
イベントカメラは、高時間分解能などの利点を持つバイオインスパイアされたセンサーである。
当社のPASSフレームワークは,高次イベントモデリングに優れた能力を示す。
私たちの重要な洞察は、状態空間モデルを通じて適応的に符号化されたイベント機能を学ぶことです。
論文 参考訳(メタデータ) (2024-09-25T14:08:37Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Enhancing Visual Place Recognition via Fast and Slow Adaptive Biasing in Event Cameras [18.348497200655746]
イベントカメラは、低レイテンシ、エネルギー効率、高ダイナミックレンジといった有益な特徴のために、ロボット工学でますます人気がある。
これらのパラメータは、イベントをトリガーするために必要な光強度の変化を規制する。
本稿では,2つのインタラクション手法を用いて,バイアスパラメータを自動的に調整するフィードバック制御アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-25T05:10:34Z) - Detecting Anomalies in Dynamic Graphs via Memory enhanced Normality [39.476378833827184]
動的グラフにおける異常検出は、グラフ構造と属性の時間的進化によって大きな課題となる。
時空間記憶強調グラフオートエンコーダ(STRIPE)について紹介する。
STRIPEは、AUCスコアが5.8%改善し、トレーニング時間が4.62倍速く、既存の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-03-14T02:26:10Z) - FasterPose: A Faster Simple Baseline for Human Pose Estimation [65.8413964785972]
本稿では,高速ポーズ推定のためのLR表現を用いた費用対効果ネットワークの設計パラダイムであるFasterPoseを提案する。
我々は,FasterPoseのトレーニング挙動について検討し,収束を加速する新しい回帰クロスエントロピー(RCE)損失関数を定式化する。
従来のポーズ推定ネットワークと比較すると,FLOPの58%が減少し,精度が1.3%向上した。
論文 参考訳(メタデータ) (2021-07-07T13:39:08Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。