論文の概要: Driving Anomaly Detection Using Conditional Generative Adversarial
Network
- arxiv url: http://arxiv.org/abs/2203.08289v1
- Date: Tue, 15 Mar 2022 22:10:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 14:50:43.078360
- Title: Driving Anomaly Detection Using Conditional Generative Adversarial
Network
- Title(参考訳): 条件付き生成逆ネットワークを用いた運転異常検出
- Authors: Yuning Qiu, Teruhisa Misu, Carlos Busso
- Abstract要約: 本研究では,条件付き生成逆数ネットワーク(GAN)を用いた運転異常の定量化手法を提案する。
この手法は、事前に観測された信号にモデルを条件付けすることで、今後の運転シナリオを予測する。
結果は知覚的評価によって検証され、アノテータは高い異常スコアで検出されたビデオのリスクと親しみやすさを評価するよう依頼される。
- 参考スコア(独自算出の注目度): 26.45460503638333
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Anomaly driving detection is an important problem in advanced driver
assistance systems (ADAS). It is important to identify potential hazard
scenarios as early as possible to avoid potential accidents. This study
proposes an unsupervised method to quantify driving anomalies using a
conditional generative adversarial network (GAN). The approach predicts
upcoming driving scenarios by conditioning the models on the previously
observed signals. The system uses the difference of the output from the
discriminator between the predicted and actual signals as a metric to quantify
the anomaly degree of a driving segment. We take a driver-centric approach,
considering physiological signals from the driver and controller area
network-Bus (CAN-Bus) signals from the vehicle. The approach is implemented
with convolutional neural networks (CNNs) to extract discriminative feature
representations, and with long short-term memory (LSTM) cells to capture
temporal information. The study is implemented and evaluated with the driving
anomaly dataset (DAD), which includes 250 hours of naturalistic recordings
manually annotated with driving events. The experimental results reveal that
recordings annotated with events that are likely to be anomalous, such as
avoiding on-road pedestrians and traffic rule violations, have higher anomaly
scores than recordings without any event annotation. The results are validated
with perceptual evaluations, where annotators are asked to assess the risk and
familiarity of the videos detected with high anomaly scores. The results
indicate that the driving segments with higher anomaly scores are more risky
and less regularly seen on the road than other driving segments, validating the
proposed unsupervised approach.
- Abstract(参考訳): 高度運転支援システム(ADAS)では異常運転検出が重要な問題である。
潜在的な事故を避けるために、できるだけ早く潜在的な危険シナリオを特定することが重要である。
本研究では,条件付き生成逆数ネットワーク(GAN)を用いた運転異常の定量化手法を提案する。
この手法は、事前に観測された信号にモデルを条件付けすることで、今後の運転シナリオを予測する。
このシステムは、予測信号と実信号との判別器からの出力の差を計量として、駆動セグメントの異常度を定量化する。
我々は,運転者の生理的信号と制御領域のネットワークバス(CAN-Bus)信号を考慮し,運転者中心のアプローチをとる。
このアプローチはconvolutional neural networks (cnns) で実装され、識別的特徴表現を抽出し、long short-term memory (lstm) 細胞で時間情報をキャプチャする。
この研究は、運転イベントを手動で注釈付けした250時間の自然主義的な記録を含む、運転異常データセット(DAD)を用いて実施および評価されている。
実験の結果,路上歩行者の回避や交通規則違反など,異常と思われるイベントに注釈が付された記録は,イベントアノテーションを伴わない記録よりも異常スコアが高いことがわかった。
結果は知覚的評価を用いて検証され、アノテータは高い異常スコアで検出されたビデオのリスクと親しみやすさを評価する。
以上の結果から, 道路上の運転区間は, 他の運転区間よりも危険度が高く, 定期的な視認性が低いことが示唆された。
関連論文リスト
- Masked EEG Modeling for Driving Intention Prediction [27.606175591082756]
本稿では,BCI支援運転における新たな研究方向を開拓し,運転意図に関連する神経パターンについて検討する。
本研究では,左旋回,右旋回,ストレート進行といった人間の運転意図を予測する新しい脳波モデリングフレームワークを提案する。
本モデルでは, 運転意図予測時に85.19%の精度を達成し, 交通事故の軽減に期待できる可能性を示した。
論文 参考訳(メタデータ) (2024-08-08T03:49:05Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - SigSegment: A Signal-Based Segmentation Algorithm for Identifying
Anomalous Driving Behaviours in Naturalistic Driving Videos [5.735035463793008]
本稿では,映像を異常と非異常に分割する信号に基づく異常検出アルゴリズムを提案する。
提案手法はオーバーラップスコア0.5424を達成し、AIシティチャレンジ2023で公衆のリーダーボードで9位にランクインした。
論文 参考訳(メタデータ) (2023-04-13T22:38:18Z) - Infrastructure-based End-to-End Learning and Prevention of Driver
Failure [68.0478623315416]
フェールネットは、規模が拡大したミニ都市において、名目上と無謀なドライバーの両方の軌道上で、エンドツーエンドでトレーニングされた、繰り返しニューラルネットワークである。
制御障害、上流での認識エラー、ドライバーのスピードを正確に識別し、名目運転と区別することができる。
速度や周波数ベースの予測器と比較すると、FailureNetのリカレントニューラルネットワーク構造は予測能力を向上し、ハードウェアにデプロイすると84%以上の精度が得られる。
論文 参考訳(メタデータ) (2023-03-21T22:55:51Z) - Cognitive Accident Prediction in Driving Scenes: A Multimodality
Benchmark [77.54411007883962]
本研究では,視覚的観察と運転者の注意に対する人為的な文章記述の認識を効果的に活用し,モデルトレーニングを容易にする認知事故予測手法を提案する。
CAPは、注意テキスト〜ビジョンシフト融合モジュール、注意シーンコンテキスト転送モジュール、運転注意誘導事故予測モジュールによって構成される。
我々は,1,727件の事故ビデオと219万フレーム以上の大規模ベンチマークを構築した。
論文 参考訳(メタデータ) (2022-12-19T11:43:02Z) - Anomaly Detection in Driving by Cluster Analysis Twice [0.0]
本研究は, クラスタ分析による運転異常検出法(ADDCAT)を提案する。
イベントは、運転の正常さのパターンと見なされる主要なクラスタに適合しない場合、異常であると言われている。
この方法は、事前のトレーニングプロセスや膨大な計算コストを必要とせず、運転中の異常を検出する手段を提供する。
論文 参考訳(メタデータ) (2022-12-15T09:53:49Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Are we certain it's anomalous? [57.729669157989235]
時系列における異常検出は、高度に非線形な時間的相関のため、異常は稀であるため、複雑なタスクである。
本稿では,異常検出(HypAD)におけるハイパボリック不確実性の新しい利用法を提案する。
HypADは自己指導で入力信号を再構築する。
論文 参考訳(メタデータ) (2022-11-16T21:31:39Z) - Anomaly Detection in Multi-Agent Trajectories for Automated Driving [2.5211566369910967]
人間と同様、自動走行車は異常検出を行う。
私たちの革新は、動的エージェントの複数の軌道を共同で学習する能力です。
論文 参考訳(メタデータ) (2021-10-15T08:07:31Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z) - Driver Anomaly Detection: A Dataset and Contrastive Learning Approach [17.020790792750457]
本稿では,通常の運転と異常運転を区別する指標を学習するための対照的な学習手法を提案する。
本手法はテストセットの0.9673 AUCに到達し,異常検出タスクに対する対照的な学習手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-09-30T13:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。