論文の概要: Real-Time In-Cabin Driver Behavior Recognition on Low-Cost Edge Hardware
- arxiv url: http://arxiv.org/abs/2512.22298v1
- Date: Fri, 26 Dec 2025 00:54:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.972805
- Title: Real-Time In-Cabin Driver Behavior Recognition on Low-Cost Edge Hardware
- Title(参考訳): 低コストエッジハードウェアにおける実時間車内ドライバ動作認識
- Authors: Vesal Ahsani, Babak Hossein Khalaj,
- Abstract要約: Raspberry Pi 5とGoogle Coral Edge TPUにデプロイするために設計された、シングルカメラインキャビンドライバの挙動認識システム。
システムは、複数の電話使用モード、食事/飲酒、喫煙、後ろに手を伸ばす、視線/注意のシフト、乗客のインタラクション、グルーミング、コントロールパネルのインタラクション、あくび、目を閉じた睡眠を含む17の行動クラスをカバーする。
- 参考スコア(独自算出の注目度): 1.1100764382749708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In-cabin Driver Monitoring Systems (DMS) must recognize distraction- and drowsiness-related behaviors with low latency under strict constraints on compute, power, and cost. We present a single-camera in-cabin driver behavior recognition system designed for deployment on two low-cost edge platforms: Raspberry Pi 5 (CPU-only) and Google Coral Edge TPU. The proposed pipeline combines (i) a compact per-frame vision model, (ii) a confounder-aware label design to reduce visually similar false positives, and (iii) a temporal decision head that triggers alerts only when predictions are both confident and sustained. The system covers 17 behavior classes, including multiple phone-use modes, eating/drinking, smoking, reaching behind, gaze/attention shifts, passenger interaction, grooming, control-panel interaction, yawning, and eyes-closed sleep. Training and evaluation use licensed datasets spanning diverse drivers, vehicles, and lighting conditions (details in Section 6), and we further validate runtime behavior in real in-vehicle tests. The optimized deployments achieve about 16 FPS on Raspberry Pi 5 with INT8 inference (per-frame latency under 60 ms) and about 25 FPS on Coral Edge TPU, enabling real-time monitoring and stable alert generation on inexpensive hardware. Finally, we discuss how reliable in-cabin human-state perception can serve as an upstream input for human-centered vehicle intelligence, including emerging agentic vehicle concepts.
- Abstract(参考訳): In-cabin Driver Monitoring Systems (DMS) は、計算、電力、コストの厳しい制約の下で低レイテンシで、気晴らしや眠気に関連する振る舞いを認識する必要がある。
Raspberry Pi 5(CPUのみ)とGoogle Coral Edge TPUの2つの低コストエッジプラットフォームに展開するために設計された,シングルカメラのインキャビンドライバ動作認識システムを提案する。
提案されたパイプラインが結合する
(i)コンパクトなフレーム単位の視覚モデル
(二)視覚的に類似した偽陽性を減らすための共同設立者対応ラベルデザイン及び
三 予知が確実かつ持続している場合に限って警報を発する時限決定ヘッド
このシステムは、複数の電話使用モード、食事/飲酒、喫煙、後ろに手を伸ばす、視線/注意のシフト、乗客のインタラクション、グルーミング、コントロールパネルのインタラクション、あくび、目を閉じた睡眠を含む17の行動クラスをカバーする。
各種ドライバ,車両,照明条件にまたがるライセンスデータセット(第6節の詳細)のトレーニングと評価を行い,実車内テストにおける実行時の挙動をさらに検証した。
最適化されたデプロイメントは、INT8推論(60ms未満のフレーム毎のレイテンシ)とCoral Edge TPUでの約25のFPSで、Raspberry Pi 5上で約16のFPSを実現している。
最後に、車内人間の状態認識が、新しいエージェント車の概念を含む、人間中心の車両インテリジェンスのための上流入力として、いかに信頼できるかについて議論する。
関連論文リスト
- Video Object Recognition in Mobile Edge Networks: Local Tracking or Edge Detection? [57.000348519630286]
モバイルエッジコンピューティングの最近の進歩により、高精度ニューラルネットワークを備えたエッジサーバに集約的なオブジェクト検出をオフロードすることが可能になった。
このハイブリッドアプローチは有望なソリューションを提供するが、新たな課題として、エッジ検出とローカルトラッキングのタイミングを決定する。
局所的なトラッキングとエッジ検出を適応的に選択する深層強化学習に基づくアルゴリズムである単一デバイス環境での LTED-Ada を提案する。
論文 参考訳(メタデータ) (2025-11-25T04:54:51Z) - Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
ドライバ行動監視ネットワーク(DBMNet)は軽量のバックボーンに依存しており、カメラのビュー情報を破棄するためにアンタングルモジュールを統合する。
DBMNetは、既存のアプローチと比較して、Top-1の精度が7%向上している。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - Real-Time Pedestrian Detection on IoT Edge Devices: A Lightweight Deep Learning Approach [1.4732811715354455]
本研究では,AIoT(Artificial Intelligence of Things)エッジデバイス上での軽量ディープラーニングモデルの実装について検討する。
You Only Look Once (YOLO)ベースのDLモデルは、リアルタイムな歩行者検出のためにデプロイされる。
シミュレーションの結果、最適化されたYOLOモデルは、高速な推論速度147ミリ秒、フレームレート2.3フレーム/秒、精度78%でリアルタイムな歩行者検出を実現できることが示された。
論文 参考訳(メタデータ) (2024-09-24T04:48:41Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Leveraging the Edge and Cloud for V2X-Based Real-Time Object Detection
in Autonomous Driving [0.0]
環境認識は自動運転の重要な要素である。
本稿では,自動運転車のリアルタイム認識における検出品質と遅延の最良のトレードオフについて検討する。
我々は,局所的な検出性能を向上しつつ,適切な圧縮を伴うモデルをクラウド上でリアルタイムに実行可能であることを示す。
論文 参考訳(メタデータ) (2023-08-09T21:39:10Z) - DeepIPC: Deeply Integrated Perception and Control for an Autonomous Vehicle in Real Environments [7.642646077340124]
本稿では,自動運転に適した新しいエンドツーエンドモデルであるDeepIPCを紹介する。
DeepIPCは知覚と制御タスクをシームレスに統合する。
本評価は,DeepIPCの乾燥性およびマルチタスク効率において優れた性能を示すものである。
論文 参考訳(メタデータ) (2022-07-20T14:20:35Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。