論文の概要: Evaluating Automated Driving Planner Robustness against Adversarial
Influence
- arxiv url: http://arxiv.org/abs/2205.14697v1
- Date: Sun, 29 May 2022 15:39:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 15:31:02.797403
- Title: Evaluating Automated Driving Planner Robustness against Adversarial
Influence
- Title(参考訳): 逆影響に対する自動走行プランナーのロバスト性の評価
- Authors: Andres Molina-Markham, Silvia G. Ionescu, Erin Lanus, Derek Ng, Sam
Sommerer, Joseph J. Rushanan
- Abstract要約: 本研究の目的は,機械学習対応プランナーの対人的影響に対する保護の堅牢性を評価することである。
我々は、敵対的評価は基本的に特定の保護を破ろうとするプロセスを必要とすると論じる。
この種の推論には、脅威、保護、および守るべき計画決定の側面に関する正確な記述が必要である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating the robustness of automated driving planners is a critical and
challenging task. Although methodologies to evaluate vehicles are well
established, they do not yet account for a reality in which vehicles with
autonomous components share the road with adversarial agents. Our approach,
based on probabilistic trust models, aims to help researchers assess the
robustness of protections for machine learning-enabled planners against
adversarial influence. In contrast with established practices that evaluate
safety using the same evaluation dataset for all vehicles, we argue that
adversarial evaluation fundamentally requires a process that seeks to defeat a
specific protection. Hence, we propose that evaluations be based on estimating
the difficulty for an adversary to determine conditions that effectively induce
unsafe behavior. This type of inference requires precise statements about
threats, protections, and aspects of planning decisions to be guarded. We
demonstrate our approach by evaluating protections for planners relying on
camera-based object detectors.
- Abstract(参考訳): 自動運転プランナーの堅牢性を評価することは、決定的かつ困難な課題である。
車両の評価手法は確立されているが、自律的な部品を持つ車両が敵のエージェントと道路を共有している現実をまだ説明していない。
提案手法は,確率的信頼モデルに基づき,機械学習を利用したプランナーの保護の堅牢性を評価することを目的としている。
すべての車両に対して同じ評価データセットを用いて安全性を評価する確立された慣行とは対照的に、敵意評価は基本的に特定の保護を破ろうとするプロセスが必要であると論じる。
そこで本研究では,安全でない行動を効果的に誘発する条件を敵が判断することの難しさを推定することに基づく評価手法を提案する。
この種の推論には、脅威、保護、および守るべき計画決定の側面に関する正確な記述が必要である。
提案手法は,カメラを用いた物体検出装置に依存したプランナーの保護を評価することで実証する。
関連論文リスト
- Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - A Real-time Evaluation Framework for Pedestrian's Potential Risk at Non-Signalized Intersections Based on Predicted Post-Encroachment Time [1.0124625066746595]
本研究では,歩行者の潜在的なリスクをリアルタイムに評価するために,コンピュータビジョン技術と予測モデルを用いたフレームワークを開発した。
P-PET(Predicted Post-Encroachment Time)は、交差点で歩行者や車両が到着する時刻を予測できるディープラーニングモデルから派生した、予測後時間(Predicted Post-Encroachment Time)である。
論文 参考訳(メタデータ) (2024-04-24T04:10:05Z) - Interaction-Aware Decision-Making for Autonomous Vehicles in Forced
Merging Scenario Leveraging Social Psychology Factors [7.812717451846781]
インタラクションドライバの社会的行動と個人的目的の両方を取り入れた行動モデルを考える。
我々は、他のドライバーの意図をオンラインで見積もる、後退する水平制御に基づく意思決定戦略を開発する。
論文 参考訳(メタデータ) (2023-09-25T19:49:14Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - From Adversarial Arms Race to Model-centric Evaluation: Motivating a
Unified Automatic Robustness Evaluation Framework [91.94389491920309]
テキストの敵対攻撃は、セマンティック保存されているが、入力に誤解を招く摂動を加えることでモデルの弱点を発見することができる。
既存のロバストネス評価の実践は、包括的評価、非現実的評価プロトコル、無効な対人サンプルの問題を示す可能性がある。
我々は、敵攻撃の利点を活用するために、モデル中心の評価にシフトする統合された自動ロバストネス評価フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-29T14:55:20Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Contextual Intelligent Decisions: Expert Moderation of Machine Outputs
for Fair Assessment of Commercial Driving [2.7323386266136125]
本稿では,ドライバーの行動に対するより公平な道路安全評価手法を提案する。
知的意思決定プロセスに埋め込まれた文脈的モデレーションは、専門家の入力によって支えられている。
本研究では,因子の影響と,専門家の見解の相違を捉えるために,間隔評価型回答形式アンケートを開発した。
論文 参考訳(メタデータ) (2022-02-20T13:48:41Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。