論文の概要: Modified Supervised Contrastive Learning for Detecting Anomalous Driving
Behaviours
- arxiv url: http://arxiv.org/abs/2109.04021v1
- Date: Thu, 9 Sep 2021 03:50:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-11 06:00:09.348415
- Title: Modified Supervised Contrastive Learning for Detecting Anomalous Driving
Behaviours
- Title(参考訳): 異常運転行動検出のための教師付きコントラスト学習の改良
- Authors: Shehroz S. Khan, Ziting Shen, Haoying Sun, Ax Patel, and Ali Abedi
- Abstract要約: 我々はこの問題を教師付きコントラスト学習アプローチとして定式化し、視覚表現を学習し、正常で見えず異常な運転行動を検出する。
本研究は,31名の運転者の正常運転行動と異常運転行動の783分間のビデオ記録を含む運転異常検出データセットに示す。
- 参考スコア(独自算出の注目度): 1.4544109317472054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting distracted driving behaviours is important to reduce millions of
deaths and injuries occurring worldwide. Distracted or anomalous driving
behaviours are deviations from the 'normal' driving that need to be identified
correctly to alert the driver. However, these driving behaviours do not
comprise of one specific type of driving style and their distribution can be
different during training and testing phases of a classifier. We formulate this
problem as a supervised contrastive learning approach to learn a visual
representation to detect normal, and seen and unseen anomalous driving
behaviours. We made a change to the standard contrastive loss function to
adjust the similarity of negative pairs to aid the optimization. Normally, the
(self) supervised contrastive framework contains an encoder followed by a
projection head, which is omitted during testing phase as the encoding layers
are considered to contain general visual representative information. However,
we assert that for supervised contrastive learning task, including projection
head will be beneficial. We showed our results on a Driver Anomaly Detection
dataset that contains 783 minutes of video recordings of normal and anomalous
driving behaviours of 31 drivers from various from top and front cameras (both
depth and infrared). We also performed an extra step of fine tuning the labels
in this dataset. Out of 9 video modalities combinations, our modified
contrastive approach improved the ROC AUC on 7 in comparison to the baseline
models (from 3.12% to 8.91% for different modalities); the remaining two models
also had manual labelling. We performed statistical tests that showed evidence
that our modifications perform better than the baseline contrastive models.
Finally, the results showed that the fusion of depth and infrared modalities
from top and front view achieved the best AUC ROC of 0.9738 and AUC PR of
0.9772.
- Abstract(参考訳): 注意をそらす運転行動を検出することは、世界中で起こる何百万もの死傷者を減らすために重要である。
異常または異常な運転行動は、運転者に警告するために正しく識別する必要がある「正常」運転からの逸脱である。
しかし、これらの運転行動は1つの特定の運転スタイルで構成されておらず、その分布は分類器の訓練および試験段階において異なる可能性がある。
この問題を教師付きコントラスト学習手法として定式化し,視覚表現を学習し,正常,視認異常な運転行動を検出する。
標準のコントラスト損失関数を変更し、最適化を支援するために負のペアの類似度を調整した。
通常、(自己)教師付きコントラストフレームワークはエンコーダと、それに続くプロジェクションヘッドを含み、エンコーディング層が一般的な視覚的な代表情報を含むと見なされるため、テストフェーズ中に省略される。
しかし、プロジェクションヘッドを含む教師付きコントラスト学習タスクは有益である、と我々は主張する。
その結果,ドライバ異常検出データセットを用いて,トップカメラとフロントカメラ(深度と赤外の両方)から31名のドライバの運転行動の正常および異常な運転行動の783分間のビデオ記録を行った。
また、このデータセットのラベルを微調整する追加のステップも行いました。
9つのビデオモダリティの組み合わせのうち、修正されたコントラスト的アプローチは、ベースラインモデル(異なるモダリティに対して3.12%から8.91%)と比較して、ROC AUCを7で改善した。
比較モデルよりも改良が優れていることを示す統計的試験を行った。
その結果, 上部および前方からの深度と赤外モードの融合はAUC ROCが0.9738, AUC PRが0.9772であった。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - Predicting Overtakes in Trucks Using CAN Data [51.28632782308621]
CANデータからトラックの積載量の検出について検討する。
私たちの分析では、オーバーテイクイベントの最大10秒前をカバーしています。
我々は、オーバーテイク・トリガーに近づくと、オーバーテイク・クラスの予測スコアが増加する傾向にあることを観察する。
論文 参考訳(メタデータ) (2024-04-08T17:58:22Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Unsupervised Adaptation from Repeated Traversals for Autonomous Driving [54.59577283226982]
自動運転車はエンドユーザー環境に一般化し、確実に動作させなければならない。
潜在的な解決策の1つは、エンドユーザの環境から収集されたラベルのないデータを活用することである。
適応過程を監督する信頼性のある信号はターゲット領域に存在しない。
この単純な仮定は、ターゲット領域上の3次元物体検出器の反復的自己学習を可能にする強力な信号を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-03-27T15:07:55Z) - Real-Time Driver Monitoring Systems through Modality and View Analysis [28.18784311981388]
ドライバーの気晴らしが道路事故の主要な原因であることが知られている。
State-of-the-artメソッドはレイテンシを無視しながら精度を優先する。
本稿では,ビデオフレーム間の時間的関係を無視した時間効率な検出モデルを提案する。
論文 参考訳(メタデータ) (2022-10-17T21:22:41Z) - Unsupervised Driving Behavior Analysis using Representation Learning and
Exploiting Group-based Training [15.355045011160804]
運転行動監視は、道路安全の管理と交通事故のリスク低減に重要な役割を果たしている。
現在の研究は、駆動パターンの変動を捉えて、堅牢な駆動パターン解析を行う。
時系列の圧縮表現を学習することで一貫した群を形成する。
論文 参考訳(メタデータ) (2022-05-12T10:27:47Z) - Driving Anomaly Detection Using Conditional Generative Adversarial
Network [26.45460503638333]
本研究では,条件付き生成逆数ネットワーク(GAN)を用いた運転異常の定量化手法を提案する。
この手法は、事前に観測された信号にモデルを条件付けすることで、今後の運転シナリオを予測する。
結果は知覚的評価によって検証され、アノテータは高い異常スコアで検出されたビデオのリスクと親しみやすさを評価するよう依頼される。
論文 参考訳(メタデータ) (2022-03-15T22:10:01Z) - Driver Anomaly Detection: A Dataset and Contrastive Learning Approach [17.020790792750457]
本稿では,通常の運転と異常運転を区別する指標を学習するための対照的な学習手法を提案する。
本手法はテストセットの0.9673 AUCに到達し,異常検出タスクに対する対照的な学習手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-09-30T13:23:21Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。