論文の概要: Looking Inside Out: Anticipating Driver Intent From Videos
- arxiv url: http://arxiv.org/abs/2312.01444v1
- Date: Sun, 3 Dec 2023 16:24:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 17:19:38.040620
- Title: Looking Inside Out: Anticipating Driver Intent From Videos
- Title(参考訳): 内部を覗く:ビデオからドライバーの意図を予測
- Authors: Yung-chi Kung, Arthur Zhang, Junmin Wang, Joydeep Biswas
- Abstract要約: ドライバーの意図は、ドライバーが危険な操作を試みている場合に車両を取り巻く警告など、道路の安全を改善するために利用することができる。
本研究では,キャビン内および外部カメラデータを利用して,将来の運転行動を予測するためのSOTA(State-of-the-art)性能を改善する手法を提案する。
我々のモデルは、既存のアプローチよりも正確により早くドライバーの操縦を予測し、精度は87.5%、平均予測時間は4.35秒前である。
- 参考スコア(独自算出の注目度): 20.501288763809036
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Anticipating driver intention is an important task when vehicles of mixed and
varying levels of human/machine autonomy share roadways. Driver intention can
be leveraged to improve road safety, such as warning surrounding vehicles in
the event the driver is attempting a dangerous maneuver. In this work, we
propose a novel method of utilizing in-cabin and external camera data to
improve state-of-the-art (SOTA) performance in predicting future driver
actions. Compared to existing methods, our approach explicitly extracts object
and road-level features from external camera data, which we demonstrate are
important features for predicting driver intention. Using our handcrafted
features as inputs for both a transformer and an LSTM-based architecture, we
empirically show that jointly utilizing in-cabin and external features improves
performance compared to using in-cabin features alone. Furthermore, our models
predict driver maneuvers more accurately and earlier than existing approaches,
with an accuracy of 87.5% and an average prediction time of 4.35 seconds before
the maneuver takes place. We release our model configurations and training
scripts on https://github.com/ykung83/Driver-Intent-Prediction
- Abstract(参考訳): 運転者の意図を予測することは、人間と機械のさまざまなレベルの車両が道路を共有している場合に重要な課題である。
ドライバーの意図は、ドライバーが危険な操作を試みている場合に車両を取り巻く警告など、道路安全を改善するために利用することができる。
本研究では, in-cabinと外部カメラデータを利用して, 将来の運転行動予測における最先端(sota)性能を向上させる新しい手法を提案する。
既存手法と比較して,外部カメラデータから対象と道路レベルの特徴を明示的に抽出し,運転者の意図を予測する上で重要な特徴を示す。
手作りの機能をトランスとLSTMアーキテクチャの両方の入力として使用することにより、インキャビンと外部機能を併用することで、インキャビンのみを使用するよりもパフォーマンスが向上することを示す。
さらに、我々のモデルは、既存のアプローチよりも正確により早くドライバーの操縦を予測し、精度は87.5%、平均予測時間は4.35秒前である。
モデル設定とトレーニングスクリプトをhttps://github.com/ykung83/Driver-Intent-Predictionでリリースします。
関連論文リスト
- CEMFormer: Learning to Predict Driver Intentions from In-Cabin and
External Cameras via Spatial-Temporal Transformers [5.572431452586636]
CEM(Cross-View Episodic Memory Transformer)と呼ばれる新しいフレームワークを導入する。
CEMは統合メモリ表現を使用して、ドライバーの意図予測を改善する。
本稿では,運転コンテキストを補助的監視信号として組み込んで予測性能を向上させる新しいコンテキスト一貫性損失を提案する。
論文 参考訳(メタデータ) (2023-05-13T05:27:36Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Maneuver-Aware Pooling for Vehicle Trajectory Prediction [3.5851903214591663]
本稿では、高速道路における自動運転車の周辺車両の挙動の予測に焦点をあてる。
本稿では,隣接する車両間の相互依存を捉えるための新しいプーリング戦略を提案する。
提案したプール機構を生成エンコーダデコーダモデルに組み入れ,公開NGSIMデータセット上で評価した。
論文 参考訳(メタデータ) (2021-04-29T02:12:08Z) - Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction [71.97877759413272]
軌道予測は、自動運転車が行動を計画し実行するための安全クリティカルなツールです。
近年の手法は,WTAやベスト・オブ・マニーといったマルチコース学習の目標を用いて,強力なパフォーマンスを実現している。
我々の研究は、軌道予測、学習出力、そして運転知識を使って制約を課すことによるより良い予測における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2021-04-16T17:58:56Z) - Vehicle trajectory prediction in top-view image sequences based on deep
learning method [1.181206257787103]
周囲の車両の動きを推定し予測することは、自動車両と高度な安全システムにとって不可欠である。
道路の空中画像から得られた画像から学習した計算複雑性の低いモデルを提案する。
提案モデルでは, 対象車両とその周辺車両の移動履歴に関する画像を見るだけで, 自動車の将来の進路を予測できる。
論文 参考訳(メタデータ) (2021-02-02T20:48:19Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - VRUNet: Multi-Task Learning Model for Intent Prediction of Vulnerable
Road Users [3.6265173818019947]
本稿では、歩行者行動の予測、横断意図の予測、ビデオシーケンスからの将来の経路予測のためのマルチタスク学習モデルを提案する。
我々は、行動アノテーションや実世界のシナリオに富んだ、オープンソースのJAADデータセットを自然言語で駆動するモデルを訓練しました。
実験結果からJAADデータセットの最先端性能が示された。
論文 参考訳(メタデータ) (2020-07-10T14:02:25Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。