論文の概要: ViT-DD: Multi-Task Vision Transformer for Semi-Supervised Driver
Distraction Detection
- arxiv url: http://arxiv.org/abs/2209.09178v3
- Date: Sat, 13 May 2023 02:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 00:53:52.608283
- Title: ViT-DD: Multi-Task Vision Transformer for Semi-Supervised Driver
Distraction Detection
- Title(参考訳): ViT-DD:セミスーパービジョンドライバディトラクション検出用マルチタスク・ビジョン・トランス
- Authors: Yunsheng Ma and Ziran Wang
- Abstract要約: 本稿では, ドライバ・ディトラクション検出用マルチモーダル・ビジョン・トランス (ViT-DD) を提案する。
注意欠陥検出と運転者の感情認識の両方に関連するトレーニング信号からの帰納的情報を組み込む。
提案したViT-DDは、SFDDDデータセットとAUCDDデータセットでそれぞれ6.5%と0.9%の精度で、既存の最先端のドライバーの気晴らし検出方法を上回っている。
- 参考スコア(独自算出の注目度): 4.264192013842097
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Ensuring traffic safety and mitigating accidents in modern driving is of
paramount importance, and computer vision technologies have the potential to
significantly contribute to this goal. This paper presents a multi-modal Vision
Transformer for Driver Distraction Detection (termed ViT-DD), which
incorporates inductive information from training signals related to both
distraction detection and driver emotion recognition. Additionally, a
self-learning algorithm is developed, allowing for the seamless integration of
driver data without emotion labels into the multi-task training process of
ViT-DD. Experimental results reveal that the proposed ViT-DD surpasses existing
state-of-the-art methods for driver distraction detection by 6.5\% and 0.9\% on
the SFDDD and AUCDD datasets, respectively. To support reproducibility and
foster further advancements in this critical research area, the source code for
this approach is made publicly available at
https://github.com/PurdueDigitalTwin/ViT-DD.
- Abstract(参考訳): 現代の運転における交通安全確保と事故軽減が最重要であり、コンピュータビジョン技術はこの目標に大きく貢献する可能性がある。
本稿では,運転者注意障害検出と運転者の感情認識の両方に関連するトレーニング信号からインダクティブ情報を取り入れたマルチモーダル視覚変換器(ViT-DD)を提案する。
さらに,感情ラベルのないドライバデータをvit-ddのマルチタスクトレーニングプロセスにシームレスに統合可能な自己学習アルゴリズムを開発した。
実験結果から,提案したViT-DDは,SFDDDデータセットとAUCDDデータセットにおいて,運転者の気晴らし検出の既存手法を6.5\%,0.9\%で上回ることがわかった。
この重要な研究領域における再現性をサポートし、さらなる進歩を促進するため、このアプローチのソースコードはhttps://github.com/PurdueDigitalTwin/ViT-DDで公開されている。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - Efficient Mixture-of-Expert for Video-based Driver State and Physiological Multi-task Estimation in Conditional Autonomous Driving [12.765198683804094]
道路の安全は世界中で重要な課題であり、交通事故による死者は約135万人である。
VDMoEと呼ばれる新しいマルチタスクDMSを提案し、RGBビデオ入力を利用して運転状態を非侵襲的に監視する。
論文 参考訳(メタデータ) (2024-10-28T14:49:18Z) - Towards Infusing Auxiliary Knowledge for Distracted Driver Detection [11.816566371802802]
引き離された運転は世界中の道路事故の主要な原因である。
シーン内のエンティティ間の意味的関係とドライバのポーズの構造的構成に関する補助的知識を注入することで,運転者検出(DDD)の新たな手法であるKiD3を提案する。
具体的には、シーングラフを統合した統合フレームワークを構築し、ドライバが映像フレーム内の視覚的手がかりと情報を合成し、ドライバの行動の全体像を作成する。
論文 参考訳(メタデータ) (2024-08-29T15:28:42Z) - Federated Learning for Drowsiness Detection in Connected Vehicles [0.19116784879310028]
ドライバー監視システムは、ドライバーの状態を決定するのを助けることができる。
ドライバーの眠気検出は潜在的な解決策を示す。
モデルトレーニングのためにデータを中央マシンに送信するのは、大規模なデータサイズとプライバシの懸念のため、現実的ではありません。
本稿では,YawDDデータセットを活用して,車両ネットワーク内での眠気検出のためのフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-06T09:39:13Z) - Improving automatic detection of driver fatigue and distraction using
machine learning [0.0]
運転者の疲労と注意をそらした運転は交通事故の重要な要因である。
本稿では,視覚に基づくアプローチと機械学習に基づくアプローチを用いて,疲労と注意をそらした運転行動の同時検出手法を提案する。
論文 参考訳(メタデータ) (2024-01-04T06:33:46Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - DMD: A Large-Scale Multi-Modal Driver Monitoring Dataset for Attention
and Alertness Analysis [54.198237164152786]
視覚は運転監視システム(DMS)の最も豊かで費用対効果の高い技術である
十分に大規模で包括的なデータセットの欠如は、DMS開発の進展のボトルネックとなっている。
本稿では,実運転シナリオとシミュレーション運転シナリオを含む広範囲なデータセットであるドライバモニタリングデータセット(DMD)を紹介する。
論文 参考訳(メタデータ) (2020-08-27T12:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。