論文の概要: Predicting Driver Intention Using Deep Neural Network
- arxiv url: http://arxiv.org/abs/2105.14790v2
- Date: Tue, 1 Jun 2021 12:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 14:46:28.210200
- Title: Predicting Driver Intention Using Deep Neural Network
- Title(参考訳): ディープニューラルネットワークを用いた運転意図予測
- Authors: Mahdi Bonyani, Mina Rahmanian, Simindokht Jahangard
- Abstract要約: 本稿では,Brain4Carsデータセットを用いたダイバー操作の予測に4つの入力を使用する新しいフレームワークを提案する。
フレームワークを3つのシナリオで評価しました。
最先端の研究と比較すると、アーキテクチャは高速で、2番目と3番目のシナリオで高いパフォーマンスを実現しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To improve driving safety and avoid car accidents, Advanced Driver Assistance
Systems (ADAS) are given significant attention. Recent studies have focused on
predicting driver intention as a key part of these systems. In this study, we
proposed new framework in which 4 inputs are employed to anticipate diver
maneuver using Brain4Cars dataset and the maneuver prediction is achieved from
5, 4, 3, 2, 1 seconds before the actual action occurs. We evaluated our
framework in three scenarios: using only 1) inside view 2) outside view and 3)
both inside and outside view. We divided the dataset into training, validation
and test sets, also K-fold cross validation is utilized. Compared with
state-of-the-art studies, our architecture is faster and achieved higher
performance in second and third scenario. Accuracy, precision, recall and
f1-score as evaluation metrics were utilized and the result of 82.41%, 82.28%,
82,42% and 82.24% for outside view and 98.90%, 98.96%, 98.90% and 98.88% for
both inside and outside view were gained, respectively.
- Abstract(参考訳): 運転安全性の向上と自動車事故の回避のために,高度運転支援システム (ADAS) が注目されている。
近年の研究では、運転者の意図をシステムの重要部分として予測することに焦点を当てている。
本研究では,brain4carsデータセットを用いたダイバー操作の予測に4つの入力を用い,実際の動作が起こる5,4,3,2,1秒前に操作予測を行う新しい枠組みを提案する。
1) 内部ビューのみ、2) 外部ビュー、3) 内部ビューと外部ビューの両方を使用して、フレームワークを3つのシナリオで評価しました。
データセットをトレーニング,検証,テストセットに分割し,K倍のクロス検証も活用した。
最先端の研究と比較すると、アーキテクチャは高速で、2番目と3番目のシナリオで高いパフォーマンスを実現しています。
評価指標として精度,精度,リコール,f1-scoreを用い,外視では82.41%,82.28%,82,42%,82.24%,内視では98.90%,98.96%,外視では98.90%,外視では98.88%を得た。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - VEDIT: Latent Prediction Architecture For Procedural Video Representation Learning [59.68917139718813]
そこで本研究では,市販の冷凍型ビジュアルエンコーダを用いて,予測および手続き計画において,最先端(SoTA)の性能を達成可能であることを示す。
観察されたステップから凍結したクリップレベルの埋め込みを条件付けて、目に見えないステップの動作を予測することで、予測のための堅牢な表現を学習することができる。
論文 参考訳(メタデータ) (2024-10-04T14:52:09Z) - End-to-End Autonomous Driving without Costly Modularization and 3D Manual Annotation [34.070813293944944]
視覚に基づくエンドツーエンド自動運転(E2EAD)のためのUADを提案する。
私たちのモチベーションは、現在のE2EADモデルが依然として典型的な駆動スタックのモジュラーアーキテクチャを模倣していることに起因しています。
我々のUADは、NUScenesにおける平均衝突速度において、UniADに対して38.7%の相対的な改善を達成し、CARLAのCown05 Longベンチマークの駆動スコアにおいて、VADを41.32ポイント上回っている。
論文 参考訳(メタデータ) (2024-06-25T16:12:52Z) - Sparse4D v3: Advancing End-to-End 3D Detection and Tracking [12.780544029261353]
本稿では,2つの補助訓練タスクを導入し,構造的改善のための分離された注意点を提案する。
推論中にインスタンスIDを割り当てる簡単なアプローチを使用して、検出器をトラッカーに拡張する。
我々の最良のモデルは nuScenes テストセットで 71.9% NDS と 67.7% AMOTA を達成した。
論文 参考訳(メタデータ) (2023-11-20T12:37:58Z) - Anticipating Driving Behavior through Deep Learning-Based Policy
Prediction [66.344923925939]
我々は、通常のカメラで捉えたビデオフレームから得られる統合的な視覚特徴と、ポイント・クラウド・スキャナーから得られた奥行きの詳細を処理できるシステムを開発した。
このシステムは、車両の速度と操舵角度の両方を含む運転行動を予測するように設計されている。
評価の結果,テストシナリオの少なくとも半分において,予測値が有意な精度を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-07-20T17:38:55Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - The AI Mechanic: Acoustic Vehicle Characterization Neural Networks [1.8275108630751837]
我々は,モバイルデバイスから取得した音声を用いて,音響車両の特徴的深層学習システムであるAIメカニックを紹介する。
我々は、故障検出を強化するために車両特性を予測し、カスケードする畳み込みニューラルネットワークを構築している。
我々のカスケーディングアーキテクチャは、さらに93.6%の検証と86.8%のテストセットの正確さを達成し、16.4%/7.8%と4.2%/1.5%のマージンを示した。
論文 参考訳(メタデータ) (2022-05-19T16:29:26Z) - A Computer Vision-Based Approach for Driver Distraction Recognition
using Deep Learning and Genetic Algorithm Based Ensemble [1.8907108368038217]
携帯電話や他の無線機器が原因で 道路の安全が危うくなる
本研究の目的は,運転者の気晴らし分類問題の性能を向上させることにより,既存の運転姿勢認識技術を支援することである。
本稿では,AlexNet,VGG-16,EfficientNet B0,Vanilla CNN,Modified DenseNet,InceptionV3+BiLSTMという,6つの独立したディープニューラルネットワークの遺伝的アルゴリズムに基づくアンサンブルを用いたアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-28T13:39:31Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。