論文の概要: Multi-Task Vision Transformer for Semi-Supervised Driver Distraction
Detection
- arxiv url: http://arxiv.org/abs/2209.09178v1
- Date: Mon, 19 Sep 2022 16:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 18:36:23.051492
- Title: Multi-Task Vision Transformer for Semi-Supervised Driver Distraction
Detection
- Title(参考訳): セミスーパービジョンドライバディストラクション検出のためのマルチタスクビジョン変換器
- Authors: Yunsheng Ma and Ziran Wang
- Abstract要約: 運転注意障害検出のための視覚変換器(ViT)に基づくアプローチを提案する。
提案したViT-DDは、運転注意障害検出の最先端手法をそれぞれ6.5%と0.9%で上回っている。
- 参考スコア(独自算出の注目度): 4.264192013842097
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Driver distraction detection is an important computer vision problem that can
play a crucial role in enhancing traffic safety and reducing traffic accidents.
In this paper, a Vision Transformer (ViT) based approach for driver distraction
detection is proposed. Specifically, a multi-modal Vision Transformer (ViT-DD)
is developed, which exploits inductive information contained in signals of
distraction detection as well as driver emotion recognition. Further, a
semi-surprised learning algorithm is designed to include driver data without
emotion labels into the supervised multi-task training of ViT-DD. Extensive
experiments conducted on the SFDDD and AUCDD datasets demonstrate that the
proposed ViT-DD outperforms the state-of-the-art approaches for driver
distraction detection by 6.5% and 0.9%, respectively. Our source code is
released at https://github.com/PurdueDigitalTwin/ViT-DD.
- Abstract(参考訳): 運転注意障害検出は、交通安全の向上と交通事故の低減に重要な役割を果たす重要なコンピュータビジョン問題である。
本稿では,視覚変換器(ViT)を用いた運転注意障害検出手法を提案する。
具体的には,注意散逸検出信号に含まれる誘導情報やドライバの感情認識を利用した多モード視覚トランスフォーマ(vit-dd)を開発した。
さらに、ViT-DDの教師付きマルチタスクトレーニングに感情ラベルのないドライバデータを含む半サプライズ学習アルゴリズムを設計する。
SFDDDデータセットとAUCDDデータセットで実施された大規模な実験により、提案されたViT-DDは、ドライバーの気晴らし検出に対する最先端のアプローチをそれぞれ6.5%と0.9%上回った。
ソースコードはhttps://github.com/PurdueDigitalTwin/ViT-DDで公開されています。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - Efficient Mixture-of-Expert for Video-based Driver State and Physiological Multi-task Estimation in Conditional Autonomous Driving [12.765198683804094]
道路の安全は世界中で重要な課題であり、交通事故による死者は約135万人である。
VDMoEと呼ばれる新しいマルチタスクDMSを提案し、RGBビデオ入力を利用して運転状態を非侵襲的に監視する。
論文 参考訳(メタデータ) (2024-10-28T14:49:18Z) - Towards Infusing Auxiliary Knowledge for Distracted Driver Detection [11.816566371802802]
引き離された運転は世界中の道路事故の主要な原因である。
シーン内のエンティティ間の意味的関係とドライバのポーズの構造的構成に関する補助的知識を注入することで,運転者検出(DDD)の新たな手法であるKiD3を提案する。
具体的には、シーングラフを統合した統合フレームワークを構築し、ドライバが映像フレーム内の視覚的手がかりと情報を合成し、ドライバの行動の全体像を作成する。
論文 参考訳(メタデータ) (2024-08-29T15:28:42Z) - Federated Learning for Drowsiness Detection in Connected Vehicles [0.19116784879310028]
ドライバー監視システムは、ドライバーの状態を決定するのを助けることができる。
ドライバーの眠気検出は潜在的な解決策を示す。
モデルトレーニングのためにデータを中央マシンに送信するのは、大規模なデータサイズとプライバシの懸念のため、現実的ではありません。
本稿では,YawDDデータセットを活用して,車両ネットワーク内での眠気検出のためのフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-06T09:39:13Z) - Improving automatic detection of driver fatigue and distraction using
machine learning [0.0]
運転者の疲労と注意をそらした運転は交通事故の重要な要因である。
本稿では,視覚に基づくアプローチと機械学習に基づくアプローチを用いて,疲労と注意をそらした運転行動の同時検出手法を提案する。
論文 参考訳(メタデータ) (2024-01-04T06:33:46Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - DMD: A Large-Scale Multi-Modal Driver Monitoring Dataset for Attention
and Alertness Analysis [54.198237164152786]
視覚は運転監視システム(DMS)の最も豊かで費用対効果の高い技術である
十分に大規模で包括的なデータセットの欠如は、DMS開発の進展のボトルネックとなっている。
本稿では,実運転シナリオとシミュレーション運転シナリオを含む広範囲なデータセットであるドライバモニタリングデータセット(DMD)を紹介する。
論文 参考訳(メタデータ) (2020-08-27T12:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。