論文の概要: Neuromorphic Seatbelt State Detection for In-Cabin Monitoring with Event
Cameras
- arxiv url: http://arxiv.org/abs/2308.07802v1
- Date: Tue, 15 Aug 2023 14:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 12:31:27.303296
- Title: Neuromorphic Seatbelt State Detection for In-Cabin Monitoring with Event
Cameras
- Title(参考訳): イベントカメラを用いたキャビン内モニタリングのためのニューロモルフィックシートベルト状態検出
- Authors: Paul Kielty, Cian Ryan, Mehdi Sefidgar Dilmaghani, Waseem Shariff, Joe
Lemley, Peter Corcoran
- Abstract要約: 本研究は,シートベルト状態検出を含むイベントベースDMS技術を拡張するための概念実証を提供する。
二つの分類課題において, 実検体と実検体でF1スコアが0.989, 0.944と同定された。
- 参考スコア(独自算出の注目度): 0.932065750652415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neuromorphic vision sensors, or event cameras, differ from conventional
cameras in that they do not capture images at a specified rate. Instead, they
asynchronously log local brightness changes at each pixel. As a result, event
cameras only record changes in a given scene, and do so with very high temporal
resolution, high dynamic range, and low power requirements. Recent research has
demonstrated how these characteristics make event cameras extremely practical
sensors in driver monitoring systems (DMS), enabling the tracking of high-speed
eye motion and blinks. This research provides a proof of concept to expand
event-based DMS techniques to include seatbelt state detection. Using an event
simulator, a dataset of 108,691 synthetic neuromorphic frames of car occupants
was generated from a near-infrared (NIR) dataset, and split into training,
validation, and test sets for a seatbelt state detection algorithm based on a
recurrent convolutional neural network (CNN). In addition, a smaller set of
real event data was collected and reserved for testing. In a binary
classification task, the fastened/unfastened frames were identified with an F1
score of 0.989 and 0.944 on the simulated and real test sets respectively. When
the problem extended to also classify the action of fastening/unfastening the
seatbelt, respective F1 scores of 0.964 and 0.846 were achieved.
- Abstract(参考訳): ニューロモルフィック視覚センサーやイベントカメラは、特定の速度で画像を撮影しないという点で従来のカメラとは異なる。
代わりに、各ピクセルのローカルな明るさ変化を非同期に記録する。
結果として、イベントカメラは与えられたシーンの変化のみを記録し、非常に高時間分解能、高ダイナミックレンジ、低電力要求でそれを行う。
最近の研究では、これらの特徴がドライバー監視システム(DMS)においてイベントカメラを極めて実用的なセンサーにする方法が実証されている。
本研究は,シートベルト状態検出を含むイベントベースDMS技術を拡張するための概念実証を提供する。
イベントシミュレータを用いて,近赤外(nir)データセットから108,691個のカー占有者の合成ニューロモルフィックフレームのデータセットを生成し,再帰畳み込みニューラルネットワーク(cnn)に基づくシートベルト状態検出アルゴリズムのトレーニング,検証,テストセットに分割した。
さらに、より小さな実イベントデータが収集され、テスト用に予約された。
二分分類タスクでは, 固定・非固定フレームと実テストセットでそれぞれ0.989, 0.944のf1スコアを同定した。
また、シートベルトの締め付け・締め付け動作の分別も可能となり、各F1スコアの0.964と0.846が達成された。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - BlinkTrack: Feature Tracking over 100 FPS via Events and Images [50.98675227695814]
本稿では,RGB画像とイベントデータを統合した新しいフレームワークであるBlinkTrackを提案する。
本手法は,従来のカルマンフィルタを学習ベースのフレームワークに拡張し,イベントおよびイメージの分岐において微分可能なカルマンフィルタを利用する。
実験の結果、BlinkTrackは既存のイベントベースの手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-09-26T15:54:18Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Real-Time Driver Monitoring Systems through Modality and View Analysis [28.18784311981388]
ドライバーの気晴らしが道路事故の主要な原因であることが知られている。
State-of-the-artメソッドはレイテンシを無視しながら精度を優先する。
本稿では,ビデオフレーム間の時間的関係を無視した時間効率な検出モデルを提案する。
論文 参考訳(メタデータ) (2022-10-17T21:22:41Z) - Traffic Sign Detection With Event Cameras and DCNN [0.0]
イベントカメラ(DVS)は、従来のカメラの代替またはサプリメントとして視覚システムで使用されている。
本研究では,これらのセンサが,交通標識検出の一般的な課題に応用できるかどうかを検証した。
論文 参考訳(メタデータ) (2022-07-27T08:01:54Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - An Efficient Approach for Anomaly Detection in Traffic Videos [30.83924581439373]
本稿では,エッジデバイスで動作可能な映像異常検出システムのための効率的な手法を提案する。
提案手法は,シーンの変化を検出し,破損したフレームを除去するプリプロセッシングモジュールを含む。
また,新しいシーンに迅速に適応し,類似度統計量の変化を検出するシーケンシャルな変化検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-20T04:43:18Z) - Real-Time Face & Eye Tracking and Blink Detection using Event Cameras [3.842206880015537]
イベントカメラには、各ピクセルの局所的な光強度の変化を捉え、非同期イベントのストリームを生成する、新しいニューロモルフィックな視覚センサが含まれている。
ドライバー監視システム(英: Driver monitoring system、DMS)は、ドライバーの身体的および認知状態を感知し理解するために設計されたキャビン内の安全システムである。
本稿では,運転者監視のための顔と視線を同時に検出・追跡する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-16T10:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。