論文の概要: Who Make Drivers Stop? Towards Driver-centric Risk Assessment: Risk
Object Identification via Causal Inference
- arxiv url: http://arxiv.org/abs/2003.02425v2
- Date: Mon, 3 Aug 2020 04:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 07:28:23.233536
- Title: Who Make Drivers Stop? Towards Driver-centric Risk Assessment: Risk
Object Identification via Causal Inference
- Title(参考訳): 誰が運転を止めさせる?
ドライバー中心型リスクアセスメントに向けて:因果推論によるリスクオブジェクトの同定
- Authors: Chengxi Li, Stanley H. Chan and Yi-Ting Chen
- Abstract要約: 運転者中心のリスク定義,すなわち運転者の行動に影響を与えるオブジェクトは危険である。
提案するオブジェクトレベルの操作可能な駆動モデルを用いた因果推論に基づく新しい2段階リスクオブジェクト識別フレームワークを提案する。
当社のフレームワークは,強力なベースラインに対するパフォーマンスを7.5%向上させています。
- 参考スコア(独自算出の注目度): 19.71459945458985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A significant amount of people die in road accidents due to driver errors. To
reduce fatalities, developing intelligent driving systems assisting drivers to
identify potential risks is in an urgent need. Risky situations are generally
defined based on collision prediction in the existing works. However, collision
is only a source of potential risks, and a more generic definition is required.
In this work, we propose a novel driver-centric definition of risk, i.e.,
objects influencing drivers' behavior are risky. A new task called risk object
identification is introduced. We formulate the task as the cause-effect problem
and present a novel two-stage risk object identification framework based on
causal inference with the proposed object-level manipulable driving model. We
demonstrate favorable performance on risk object identification compared with
strong baselines on the Honda Research Institute Driving Dataset (HDD). Our
framework achieves a substantial average performance boost over a strong
baseline by 7.5%.
- Abstract(参考訳): 運転ミスにより交通事故でかなりの数の人が死亡する。
死亡率を減らすため、ドライバーが潜在的なリスクを特定するためのインテリジェントな運転システムの開発が急務である。
リスク状況は、一般的に既存の作品の衝突予測に基づいて定義される。
しかし、衝突は潜在的なリスクの源であり、より一般的な定義が必要である。
本研究では,運転者の行動に影響を及ぼす物体が危険である,という新しい運転者中心のリスク定義を提案する。
リスクオブジェクト識別と呼ばれる新しいタスクが導入される。
本稿では,課題を原因効果問題として定式化し,提案するオブジェクトレベルのマニピュレータ駆動モデルを用いた因果推論に基づく2段階リスクオブジェクト識別フレームワークを提案する。
本研究は,Honda Research Institute Driving Dataset(HDD)の強力なベースラインと比較して,リスクオブジェクトの識別に好適な性能を示す。
当社のフレームワークは,強力なベースラインに対するパフォーマンスを7.5%向上させています。
関連論文リスト
- Human-Based Risk Model for Improved Driver Support in Interactive Driving Scenarios [0.0]
運転支援の改善にドライバ情報を利用する人間型リスクモデルを提案する。
大規模なシミュレーションでは,新たな人為的リスクモデルが早期の警告時間を実現し,警告エラーの低減を図っている。
論文 参考訳(メタデータ) (2024-10-03T02:10:13Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Context-Aware Quantitative Risk Assessment Machine Learning Model for
Drivers Distraction [0.0]
MDDRA(Multi-class Driver Distraction Risk Assessment)モデルは、旅行中の車両、運転者、環境データを考慮したモデルである。
MDDRAは、危険行列上のドライバーを安全、不注意、危険と分類する。
我々は、重度レベルに応じて運転者の気晴らしを分類し、予測するために機械学習技術を適用した。
論文 参考訳(メタデータ) (2024-02-20T23:20:36Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Considering Human Factors in Risk Maps for Robust and Foresighted Driver
Warning [1.4699455652461728]
本稿では,ドライバーエラーの形で人間の状態を利用する警告システムを提案する。
このシステムは、周囲の運転状況の予測を直接変更する行動プランナーのリスクマップで構成されている。
動的車線変化と交差点シナリオの異なるシミュレーションでは、運転者の行動計画がいかに危険になるかを示す。
論文 参考訳(メタデータ) (2023-06-06T16:39:58Z) - Infrastructure-based End-to-End Learning and Prevention of Driver
Failure [68.0478623315416]
フェールネットは、規模が拡大したミニ都市において、名目上と無謀なドライバーの両方の軌道上で、エンドツーエンドでトレーニングされた、繰り返しニューラルネットワークである。
制御障害、上流での認識エラー、ドライバーのスピードを正確に識別し、名目運転と区別することができる。
速度や周波数ベースの予測器と比較すると、FailureNetのリカレントニューラルネットワーク構造は予測能力を向上し、ハードウェアにデプロイすると84%以上の精度が得られる。
論文 参考訳(メタデータ) (2023-03-21T22:55:51Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Driver-centric Risk Object Identification [25.85690304998681]
運転者中心のリスク定義,すなわち危険物が運転者行動に影響を与えることを提案する。
本稿では,本課題を原因影響問題として定式化し,新たな2段階リスクオブジェクト識別フレームワークを提案する。
運転者中心型リスクオブジェクト識別データセットを算出し,提案システムの評価を行う。
論文 参考訳(メタデータ) (2021-06-24T17:27:32Z) - Addressing Inherent Uncertainty: Risk-Sensitive Behavior Generation for
Automated Driving using Distributional Reinforcement Learning [0.0]
自動運転車におけるリスク感応行動生成のための2段階のアプローチを提案する。
まず, 深層分布強化学習を用いて, 不確実な環境下で最適政策を学習する。
実行中は、確立されたリスク基準を適用して最適なリスク感受性行動を選択する。
論文 参考訳(メタデータ) (2021-02-05T11:45:12Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z) - Can Autonomous Vehicles Identify, Recover From, and Adapt to
Distribution Shifts? [104.04999499189402]
トレーニング外の配布(OOD)シナリオは、デプロイ時にエージェントを学ぶ上で一般的な課題である。
インプロバスト模倣計画(RIP)と呼ばれる不確実性を考慮した計画手法を提案する。
提案手法は,OODシーンにおける過信および破滅的な外挿を低減し,分布変化を検知し,回復することができる。
分散シフトを伴うタスク群に対する駆動エージェントのロバスト性を評価するために,自動走行車ノベルシーンベンチマークであるtexttCARNOVEL を導入する。
論文 参考訳(メタデータ) (2020-06-26T11:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。