論文の概要: Privacy-preserving fall detection at the edge using Sony IMX636 event-based vision sensor and Intel Loihi 2 neuromorphic processor
- arxiv url: http://arxiv.org/abs/2511.22554v1
- Date: Thu, 27 Nov 2025 15:44:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.627284
- Title: Privacy-preserving fall detection at the edge using Sony IMX636 event-based vision sensor and Intel Loihi 2 neuromorphic processor
- Title(参考訳): Sony IMX636イベントベース視覚センサとIntel Loihi 2ニューロモルフィックプロセッサを用いたエッジでのプライバシ保護落下検出
- Authors: Lyes Khacef, Philipp Weidel, Susumu Hogyoku, Harry Liu, Claire Alexandra Bräuer, Shunsuke Koshino, Takeshi Oyakawa, Vincent Parret, Yoshitaka Miyatani, Mike Davies, Mathis Richter,
- Abstract要約: 非侵襲的視覚ベースシステムを用いた高齢者ケアの転倒検出は、重要な課題であるが未解決の問題である。
我々は,Sony IMX636イベントベースの視覚センサとIntel Loihi 2ニューロモルフィックプロセッサを統合したニューロモルフィック・フォール検出システムを提案する。
スマートセキュリティカメラのコンセプト実証では、エッジAIアプリケーションにニューロモルフィックセンシングと処理を統合する可能性を強調しています。
- 参考スコア(独自算出の注目度): 1.4594259556596754
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fall detection for elderly care using non-invasive vision-based systems remains an important yet unsolved problem. Driven by strict privacy requirements, inference must run at the edge of the vision sensor, demanding robust, real-time, and always-on perception under tight hardware constraints. To address these challenges, we propose a neuromorphic fall detection system that integrates the Sony IMX636 event-based vision sensor with the Intel Loihi 2 neuromorphic processor via a dedicated FPGA-based interface, leveraging the sparsity of event data together with near-memory asynchronous processing. Using a newly recorded dataset under diverse environmental conditions, we explore the design space of sparse neural networks deployable on a single Loihi 2 chip and analyze the tradeoffs between detection F1 score and computational cost. Notably, on the Pareto front, our LIF-based convolutional SNN with graded spikes achieves the highest computational efficiency, reaching a 55x synaptic operations sparsity for an F1 score of 58%. The LIF with graded spikes shows a gain of 6% in F1 score with 5x less operations compared to binary spikes. Furthermore, our MCUNet feature extractor with patched inference, combined with the S4D state space model, achieves the highest F1 score of 84% with a synaptic operations sparsity of 2x and a total power consumption of 90 mW on Loihi 2. Overall, our smart security camera proof-of-concept highlights the potential of integrating neuromorphic sensing and processing for edge AI applications where latency, energy consumption, and privacy are critical.
- Abstract(参考訳): 非侵襲的視覚ベースシステムを用いた高齢者ケアの転倒検出は、重要な課題であるが未解決の問題である。
厳格なプライバシ要件によって駆動される推論は、ハードウェアの厳しい制約の下で、堅牢でリアルタイムな、常にオンの認識を必要とする、視覚センサの端で実行されなければならない。
これらの課題に対処するために,Sony IMX636イベントベースの視覚センサとIntel Loihi 2ニューロモルフィックプロセッサを専用FPGAベースのインタフェースで統合するニューロモルフィック・フォール検出システムを提案する。
種々の環境条件下で新たに記録されたデータセットを用いて,1つのLoihi 2チップ上に展開可能なスパースニューラルネットワークの設計空間を探索し,検出F1スコアと計算コストのトレードオフを分析する。
特にParetoでは,次数スパイクを有するLIFベースの畳み込みSNNが最も計算効率が高く,F1スコアの58%に対して55倍のシナプス演算間隔を達成している。
グレードスパイクのLIFはF1スコアで6%上昇し、バイナリスパイクの5倍の演算率を示した。
さらに,S4D状態空間モデルと組み合わせたMCUNet特徴抽出器では,最大F1スコアが84%,シナプス操作間隔が2倍,総消費電力が90mWであった。
全体として、私たちのスマートセキュリティカメラのコンセプト実証は、レイテンシ、エネルギー消費、プライバシが重要なエッジAIアプリケーションに対して、ニューロモルフィックセンシングと処理を統合する可能性を強調しています。
関連論文リスト
- Realizing Fully-Integrated, Low-Power, Event-Based Pupil Tracking with Neuromorphic Hardware [2.2940141855172036]
本報告では,デバイス上での完全統合による,電池駆動型ウェアラブル型瞳孔追跡システムについて紹介する。
我々のソリューションは、厳密なメモリと帯域幅の制約に最適化されたゲート時間デコーディングを備えた、新しい不確実性量子化スパイクニューラルネットワークを備えている。
我々の研究は、エンド・ツー・エンドのニューロモルフィック・コンピューティングが、次世代のエネルギー効率の高いウェアラブルシステムに対して実用的で常に目の動きを追跡することを実証している。
論文 参考訳(メタデータ) (2025-11-25T10:58:23Z) - Enabling Vibration-Based Gesture Recognition on Everyday Furniture via Energy-Efficient FPGA Implementation of 1D Convolutional Networks [11.481972015296812]
本研究では、低消費電力フィールドプログラマブルゲートアレイ(FPGA)上にコンパクトNNを展開させるエネルギー効率のよいソリューションを提案する。
我々は、複雑なスペクトル前処理を生波形入力に置き換え、複雑なオンボード前処理を不要とし、精度を犠牲にすることなく入力サイズを21倍削減する。
組み込みFPGAに適した2つの軽量アーキテクチャ(1D-CNNと1D-SepCNN)を設計し、パラメータを3億6900万から216に削減し、同等の精度を維持した。
論文 参考訳(メタデータ) (2025-10-27T09:30:36Z) - Hybrid Spiking Neural Networks for Low-Power Intra-Cortical Brain-Machine Interfaces [42.72938925647165]
皮質内脳-機械界面(iBMI)は麻痺患者の生活を劇的に改善する可能性がある。
現在のiBMIは、ハードウェアと配線が大きすぎるため、スケーラビリティとモビリティの制限に悩まされている。
無線iBMIにおける組込みニューラルデコーディングのためのハイブリッドスパイキングニューラルネットワークについて検討している。
論文 参考訳(メタデータ) (2024-09-06T17:48:44Z) - Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - Low-power event-based face detection with asynchronous neuromorphic
hardware [2.0774873363739985]
本稿では、SynSense Speckニューロモルフィックチップ上に展開されたイベントベースの顔検出のためのオンチップスパイクニューラルネットワークの最初の例を示す。
トレーニングに用いるオフチップクロック駆動シミュレーションとオンチップイベント駆動推論との精度の相違について述べる。
オンチップ顔検出のmAP[0.5]は0.6で、20mWしか消費しない。
論文 参考訳(メタデータ) (2023-12-21T19:23:02Z) - Retina : Low-Power Eye Tracking with Event Camera and Spiking Hardware [10.702811797536667]
本稿では、ダイナミック・ビジョン・センサー(DVS)カメラで捉えた純粋な事象データを利用した、視線追跡のためのニューロモルフィック手法を提案する。
このフレームワークは、直接訓練されたスパイキングニューロンネットワーク(SNN)回帰モデルを統合し、最先端の低消費電力エッジニューロモルフィックプロセッサであるSpeckを活用する。
論文 参考訳(メタデータ) (2023-12-01T08:47:56Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - An FPGA smart camera implementation of segmentation models for drone
wildfire imagery [0.9837190842240352]
森林火災は、様々な社会的・環境レベルへの影響から、世界有数の自然災害の1つとなっている。
ファイアファイアファイアの最も有望なアプローチの1つは、リモートで検出、監視、延焼評価を行うために可視・赤外線カメラを備えたドローンを使用することである。
本研究では,低消費電力フィールドプログラマブルゲートアレイ(FPGA)とバイナライズニューラルネットワーク(BNN)に基づくスマートカメラが,エッジ上でのオンボードコンピューティングの実装において,コスト効率のよい代替手段であることを示す。
論文 参考訳(メタデータ) (2023-09-04T02:30:14Z) - CoDeNet: Efficient Deployment of Input-Adaptive Object Detection on
Embedded FPGAs [41.43273142203345]
FPGAの柔軟性を利用して、変形可能な畳み込みを伴う新しいオブジェクト検出パイプラインを開発する。
高効率実装では、ソリューションは毎秒26.9フレームに達し、小さなモデルサイズは0.76MBである。
我々のモデルはPascal VOCで67.1 AP50に達し、パラメータは20.9倍小さいがTiny-YOLOより10%正確である。
論文 参考訳(メタデータ) (2020-06-12T17:56:47Z) - ASFD: Automatic and Scalable Face Detector [129.82350993748258]
ASFD(Automatic and Scalable Face Detector)を提案する。
ASFDはニューラルアーキテクチャ検索技術の組み合わせと新たな損失設計に基づいている。
ASFD-D0は120FPS以上で動作し、MobilenetはVGA解像度の画像を撮影しています。
論文 参考訳(メタデータ) (2020-03-25T06:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。