論文の概要: Introducing Risk Shadowing For Decisive and Comfortable Behavior
Planning
- arxiv url: http://arxiv.org/abs/2307.10714v1
- Date: Thu, 20 Jul 2023 09:16:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 13:50:03.210225
- Title: Introducing Risk Shadowing For Decisive and Comfortable Behavior
Planning
- Title(参考訳): 決定的かつ快適な行動計画のためのリスクシャドーイングの導入
- Authors: Tim Puphal and Julian Eggert
- Abstract要約: リスクシャドーイング(リスクシャドーイング)は,単一インタラクションを超越した状況理解手法である。
行動プランナの上流フィルタモジュールとしてリスクシャドーイングを使用することで、より決定的で快適な運転戦略を計画できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of group interactions in urban driving.
State-of-the-art behavior planners for self-driving cars mostly consider each
single agent-to-agent interaction separately in a cost function in order to
find an optimal behavior for the ego agent, such as not colliding with any of
the other agents. In this paper, we develop risk shadowing, a situation
understanding method that allows us to go beyond single interactions by
analyzing group interactions between three agents. Concretely, the presented
method can find out which first other agent does not need to be considered in
the behavior planner of an ego agent, because this first other agent cannot
reach the ego agent due to a second other agent obstructing its way. In
experiments, we show that using risk shadowing as an upstream filter module for
a behavior planner allows to plan more decisive and comfortable driving
strategies than state of the art, given that safety is ensured in these cases.
The usability of the approach is demonstrated for different intersection
scenarios and longitudinal driving.
- Abstract(参考訳): 都市運転におけるグループインタラクションの問題を考える。
自動運転車の最先端の行動プランナーは、主に、他のエージェントと衝突しないなどのエゴエージェントの最適な行動を見つけるために、コスト関数で各エージェントとエージェントの相互作用を個別に検討する。
本稿では,3つのエージェント間のグループ間相互作用を分析することで,単一インタラクションを超越できる状況理解手法であるリスクシャドーイングを開発する。
具体的には、この第1のエージェントは、第2のエージェントが邪魔しているため、egoエージェントに到達できないため、egoエージェントの行動プランナーで考慮する必要のない第1のエージェントを見つけ出すことができる。
実験では,リスクシャドーイングを行動プランナの上流フィルタモジュールとして用いることで,これらの場合の安全性が保証されることから,より決定的かつ快適な運転戦略を計画できることを示した。
このアプローチのユーザビリティは,異なる交差点シナリオと縦方向駆動に対して実証される。
関連論文リスト
- Learning responsibility allocations for multi-agent interactions: A differentiable optimization approach with control barrier functions [12.074590482085831]
責任レンズを介して安全なマルチエージェントインタラクションを規定する要因を定式化する。
本稿では,制御障壁関数と微分可能最適化に基づくデータ駆動モデリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T20:20:41Z) - PsySafe: A Comprehensive Framework for Psychological-based Attack, Defense, and Evaluation of Multi-agent System Safety [70.84902425123406]
大規模言語モデル(LLM)で拡張されたマルチエージェントシステムは、集団知能において重要な能力を示す。
しかし、悪意のある目的のためにこのインテリジェンスを誤用する可能性があり、重大なリスクが生じる。
本研究では,エージェント心理学を基盤とした枠組み(PsySafe)を提案し,エージェントのダークパーソナリティ特性がリスク行動にどう影響するかを明らかにする。
実験の結果,エージェント間の集団的危険行動,エージェントが危険な行動を行う際の自己反射,エージェントの心理的評価と危険な行動との相関など,いくつかの興味深い現象が明らかになった。
論文 参考訳(メタデータ) (2024-01-22T12:11:55Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Importance Filtering with Risk Models for Complex Driving Situations [1.4699455652461728]
自動運転車は、混雑した都市を移動するときに大量のエージェントで複雑な運転状況に直面します。
一部のエージェントは、実際に自動運転車の挙動に影響を与えていない。
重要でないエージェントをフィルタリングすることは、本質的にシステムの振る舞いや動作計画タスクを単純化する。
論文 参考訳(メタデータ) (2023-03-13T09:03:10Z) - Safe adaptation in multiagent competition [48.02377041620857]
マルチエージェントの競争シナリオでは、エゴエージェントは前例のない振る舞いを持つ新しい相手に適応しなければならない。
エゴエージェントは、相手を悪用するために自身の行動を更新するので、その行動はより悪用される可能性がある。
我々は,エゴエージェントを正規化相手モデルに対してトレーニングする安全な適応手法を開発する。
論文 参考訳(メタデータ) (2022-03-14T23:53:59Z) - Diversifying Agent's Behaviors in Interactive Decision Models [11.125175635860169]
他のエージェントの振る舞いをモデル化することは、複数のエージェント間の相互作用に関する決定モデルにおいて重要な役割を果たす。
本稿では,その相互作用に先立って,被験者の意思決定モデルにおける他のエージェントの行動の多様化について検討する。
論文 参考訳(メタデータ) (2022-03-06T23:05:00Z) - Deep Structured Reactive Planning [94.92994828905984]
自動運転のための新しいデータ駆動型リアクティブ計画目標を提案する。
本モデルは,非常に複雑な操作を成功させる上で,非反応性変種よりも優れることを示す。
論文 参考訳(メタデータ) (2021-01-18T01:43:36Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - MIDAS: Multi-agent Interaction-aware Decision-making with Adaptive
Strategies for Urban Autonomous Navigation [22.594295184455]
そこで本研究では,エゴエージェントが他車の制御動作に影響を与えることを学習する,MIDASと呼ばれる強化学習手法を構築した。
MIDAS は広範にわたる実験により検証され,(i) 異なる道路測地をまたいで動作可能であること,(ii) 外部エージェントの駆動方針の変化に対して堅牢であること,(iv) インタラクション対応意思決定に対する既存のアプローチよりも効率的で安全であること,などが示されている。
論文 参考訳(メタデータ) (2020-08-17T04:34:25Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。