論文の概要: (Safe) SMART Hands: Hand Activity Analysis and Distraction Alerts Using
a Multi-Camera Framework
- arxiv url: http://arxiv.org/abs/2301.05838v1
- Date: Sat, 14 Jan 2023 07:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 18:44:37.320180
- Title: (Safe) SMART Hands: Hand Activity Analysis and Distraction Alerts Using
a Multi-Camera Framework
- Title(参考訳): 安全)スマートハンド:マルチカメラフレームワークを用いた手の動き分析と注意散逸警告
- Authors: Ross Greer, Lulua Rakla, Anish Gopalan, Mohan Trivedi
- Abstract要約: 機械学習を用いたカメラビューのアンサンブルを用いた手作業分類のためのアルゴリズムフレームワークSMART Handsを導入する。
このフレームワークの有効性を4カメラで説明し、様々な場所の分類精度98%に達し、運転者の両手にオブジェクトを保持する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Manual (hand-related) activity is a significant source of crash risk while
driving. Accordingly, analysis of hand position and hand activity occupation is
a useful component to understanding a driver's readiness to take control of a
vehicle. Visual sensing through cameras provides a passive means of observing
the hands, but its effectiveness varies depending on camera location. We
introduce an algorithmic framework, SMART Hands, for accurate hand
classification with an ensemble of camera views using machine learning. We
illustrate the effectiveness of this framework in a 4-camera setup, reaching
98% classification accuracy on a variety of locations and held objects for both
of the driver's hands. We conclude that this multi-camera framework can be
extended to additional tasks such as gaze and pose analysis, with further
applications in driver and passenger safety.
- Abstract(参考訳): 手動(手動)の活動は、運転中のクラッシュリスクの重要な原因である。
したがって、運転者の車両の制御能力を理解する上で、手の位置と手の動きの占有状況の分析は有用な要素である。
カメラによる視覚センシングは、手を観察する受動的手段を提供するが、その効果はカメラの位置によって異なる。
機械学習を用いたカメラビューのアンサンブルを用いた手作業分類のためのアルゴリズムフレームワークSMART Handsを導入する。
本研究では,このフレームワークの有効性を4カメラ構成で示し,ドライバの両手の様々な位置と保持対象の分類精度を98%まで向上させた。
このマルチカメラ・フレームワークは、視線やポーズ分析などのタスクに拡張可能であり、運転者や乗客の安全にさらなる応用が期待できる。
関連論文リスト
- Towards Infusing Auxiliary Knowledge for Distracted Driver Detection [11.816566371802802]
引き離された運転は世界中の道路事故の主要な原因である。
シーン内のエンティティ間の意味的関係とドライバのポーズの構造的構成に関する補助的知識を注入することで,運転者検出(DDD)の新たな手法であるKiD3を提案する。
具体的には、シーングラフを統合した統合フレームワークを構築し、ドライバが映像フレーム内の視覚的手がかりと情報を合成し、ドライバの行動の全体像を作成する。
論文 参考訳(メタデータ) (2024-08-29T15:28:42Z) - PoseViNet: Distracted Driver Action Recognition Framework Using
Multi-View Pose Estimation and Vision Transformer [1.319058156672392]
本稿では,多視点運転者行動画像を用いた運転者の気晴らし検出手法を提案する。
提案手法は,ポーズ推定とアクション推論,すなわち PoseViNet を用いた視覚変換器ベースのフレームワークである。
PoseViNetは、難しいデータセットで97.55%の検証精度と90.92%のテスト精度を達成する。
論文 参考訳(メタデータ) (2023-12-22T10:13:10Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Non-Intrusive Driver Behavior Characterization From Road-Side Cameras [1.9659095632676098]
本稿では,ITS システムの路面カメラのみを用いて車体挙動を特徴付ける概念の証明を示す。
また,外部映像分析に基づく運転者の分類は,車両のキャラクタリゼーションの精度の1~2%以内の精度が得られることを示した。
論文 参考訳(メタデータ) (2023-02-25T17:22:49Z) - Learning Active Camera for Multi-Object Navigation [94.89618442412247]
ロボットアプリケーションでは、ロボットが複数のオブジェクトに自律的にナビゲートすることが不可欠だが、難しい。
既存のナビゲーション手法は主に固定カメラに焦点を当てており、アクティブカメラでナビゲートする試みはほとんど行われていない。
本稿では,アクティブカメラを用いて,複数の物体へのナビゲーションをより効率的に行うことを検討する。
論文 参考訳(メタデータ) (2022-10-14T04:17:30Z) - Threat Detection In Self-Driving Vehicles Using Computer Vision [0.0]
ダッシュカムビデオを用いた自動運転車の脅威検出機構を提案する。
オブジェクトを識別するためのYOLO,高度な車線検出アルゴリズム,カメラからの距離を測定するマルチレグレッションモデルという,4つの主要なコンポーネントがある。
提案した脅威検出モデル(TDM)の最終的な精度は82.65%である。
論文 参考訳(メタデータ) (2022-09-06T12:01:07Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - The Multimodal Driver Monitoring Database: A Naturalistic Corpus to
Study Driver Attention [44.94118128276982]
スマートな車両は、人間の運転者の行動や行動を監視して、必要な時に警告や介入を行う必要がある。
深層学習とコンピュータビジョンの最近の進歩は、人間の行動や活動を監視する上で大きな約束を示しています。
運転関連タスクの予測に高性能を提供するモデルのトレーニングには、ドメイン内の膨大なデータが必要である。
論文 参考訳(メタデータ) (2020-12-23T16:37:17Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。