論文の概要: Watch out for the risky actors: Assessing risk in dynamic environments
for safe driving
- arxiv url: http://arxiv.org/abs/2110.09998v1
- Date: Tue, 19 Oct 2021 14:10:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 14:41:12.535208
- Title: Watch out for the risky actors: Assessing risk in dynamic environments
for safe driving
- Title(参考訳): 危険なアクターに気をつけて:安全な運転のための動的環境のリスクを評価する
- Authors: Saurabh Jha, Yan Miao, Zbigniew Kalbarczyk, Ravishankar K. Iyer
- Abstract要約: 俳優のエゴが遭遇するリスクは、運転シナリオにおける他の俳優の将来の軌跡を予測することに関連する、運転シナリオと不確実性に依存する。
本研究では,世界における各アクターの重要性を計算し,その有用性を示す新たなリスク指標を提案する。
- 参考スコア(独自算出の注目度): 7.13056075998264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driving in a dynamic environment that consists of other actors is inherently
a risky task as each actor influences the driving decision and may
significantly limit the number of choices in terms of navigation and safety
plan. The risk encountered by the Ego actor depends on the driving scenario and
the uncertainty associated with predicting the future trajectories of the other
actors in the driving scenario. However, not all objects pose a similar risk.
Depending on the object's type, trajectory, position, and the associated
uncertainty with these quantities; some objects pose a much higher risk than
others. The higher the risk associated with an actor, the more attention must
be directed towards that actor in terms of resources and safety planning. In
this paper, we propose a novel risk metric to calculate the importance of each
actor in the world and demonstrate its usefulness through a case study.
- Abstract(参考訳): 他のアクターで構成される動的な環境での運転は、それぞれのアクターが運転決定に影響を与え、ナビゲーションと安全計画の観点で選択数を大幅に制限するので、本質的に危険なタスクである。
エゴ俳優が遭遇するリスクは、運転シナリオにおける他の俳優の将来の軌跡を予測することに関連する不確実性や運転シナリオに依存する。
しかし、全てのオブジェクトが同様のリスクを負うわけではない。
対象のタイプ、軌道、位置、それに付随する不確実性によっては、ある物体は他の物体よりもはるかに高いリスクを引き起こす。
アクタに関連するリスクが高いほど、リソースと安全計画の観点から、アクタに対してより注意を払う必要があります。
本稿では,世界における各アクターの重要性を計算し,その有用性を示す新たなリスク指標を提案する。
関連論文リスト
- Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - TASRA: a Taxonomy and Analysis of Societal-Scale Risks from AI [11.240642213359267]
多くの抜本的な分類が可能であり、特に新しいリスクや安全性への実践的なアプローチを明らかにする場合、有用であるものもある。
本稿では,リスクに繋がる行動,アクターは一体化されているか,意図的かという,説明責任に基づく分類について考察する。
また、AIシステムの予期せぬ相互作用から生じるリスクや、意図的に悪用されるリスクなど、さまざまなリスクタイプがどのように機能するかを説明する物語も提供しています。
論文 参考訳(メタデータ) (2023-06-12T07:55:18Z) - Watch Out for the Safety-Threatening Actors: Proactively Mitigating
Safety Hazards [5.898210877584262]
本稿では,AVの安全性に影響を及ぼす道路上の各アクターの重要性を推定するために,反実的推論を用いた安全脅威指標(STI)を提案する。
提案手法は, 希少な危険シナリオにおける最先端のAVエージェントの事故発生率を70%以上削減する。
論文 参考訳(メタデータ) (2022-06-02T05:56:25Z) - A Survey of Risk-Aware Multi-Armed Bandits [84.67376599822569]
我々は、様々な利害リスク対策をレビューし、その特性についてコメントする。
我々は,探索と探索のトレードオフが現れる,後悔の最小化設定のためのアルゴリズムを検討する。
今後の研究の課題と肥大化についてコメントし、締めくくりに締めくくります。
論文 参考訳(メタデータ) (2022-05-12T02:20:34Z) - Driver-centric Risk Object Identification [25.85690304998681]
運転者中心のリスク定義,すなわち危険物が運転者行動に影響を与えることを提案する。
本稿では,本課題を原因影響問題として定式化し,新たな2段階リスクオブジェクト識別フレームワークを提案する。
運転者中心型リスクオブジェクト識別データセットを算出し,提案システムの評価を行う。
論文 参考訳(メタデータ) (2021-06-24T17:27:32Z) - Addressing Inherent Uncertainty: Risk-Sensitive Behavior Generation for
Automated Driving using Distributional Reinforcement Learning [0.0]
自動運転車におけるリスク感応行動生成のための2段階のアプローチを提案する。
まず, 深層分布強化学習を用いて, 不確実な環境下で最適政策を学習する。
実行中は、確立されたリスク基準を適用して最適なリスク感受性行動を選択する。
論文 参考訳(メタデータ) (2021-02-05T11:45:12Z) - Deep Structured Reactive Planning [94.92994828905984]
自動運転のための新しいデータ駆動型リアクティブ計画目標を提案する。
本モデルは,非常に複雑な操作を成功させる上で,非反応性変種よりも優れることを示す。
論文 参考訳(メタデータ) (2021-01-18T01:43:36Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z) - Who Make Drivers Stop? Towards Driver-centric Risk Assessment: Risk
Object Identification via Causal Inference [19.71459945458985]
運転者中心のリスク定義,すなわち運転者の行動に影響を与えるオブジェクトは危険である。
提案するオブジェクトレベルの操作可能な駆動モデルを用いた因果推論に基づく新しい2段階リスクオブジェクト識別フレームワークを提案する。
当社のフレームワークは,強力なベースラインに対するパフォーマンスを7.5%向上させています。
論文 参考訳(メタデータ) (2020-03-05T04:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。