論文の概要: Robustness Benchmark of Road User Trajectory Prediction Models for
Automated Driving
- arxiv url: http://arxiv.org/abs/2304.01895v1
- Date: Tue, 4 Apr 2023 15:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 13:21:51.140362
- Title: Robustness Benchmark of Road User Trajectory Prediction Models for
Automated Driving
- Title(参考訳): 自動走行のための道路利用者軌道予測モデルのロバスト性ベンチマーク
- Authors: Manuel Mu\~noz S\'anchez, Emilia Silvas, Jos Elfring, Ren\'e van de
Molengraft
- Abstract要約: 車両内のモデル展開中に観測される機能不全をシミュレートする摂動に対して、機械学習モデルをベンチマークする。
同様の摂動を持つモデルのトレーニングは、パフォーマンスの劣化を効果的に低減し、エラーは+87.5%まで増加する。
効果的な緩和戦略であるにもかかわらず、トレーニング中の摂動によるデータ拡張は、予期せぬ摂動に対する堅牢性を保証するものではない、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate and robust trajectory predictions of road users are needed to enable
safe automated driving. To do this, machine learning models are often used,
which can show erratic behavior when presented with previously unseen inputs.
In this work, two environment-aware models (MotionCNN and MultiPath++) and two
common baselines (Constant Velocity and an LSTM) are benchmarked for robustness
against various perturbations that simulate functional insufficiencies observed
during model deployment in a vehicle: unavailability of road information, late
detections, and noise. Results show significant performance degradation under
the presence of these perturbations, with errors increasing up to +1444.8\% in
commonly used trajectory prediction evaluation metrics. Training the models
with similar perturbations effectively reduces performance degradation, with
error increases of up to +87.5\%. We argue that despite being an effective
mitigation strategy, data augmentation through perturbations during training
does not guarantee robustness towards unforeseen perturbations, since
identification of all possible on-road complications is unfeasible.
Furthermore, degrading the inputs sometimes leads to more accurate predictions,
suggesting that the models are unable to learn the true relationships between
the different elements in the data.
- Abstract(参考訳): 安全な自動運転を実現するためには,道路利用者の正確な軌道予測が必要である。
これを実現するために、機械学習モデルが頻繁に使用され、以前は目に見えない入力で提示された場合、不規則な振る舞いを示すことができる。
本研究では,2つの環境意識モデル (MotionCNNとMultiPath++) と2つの共通ベースライン (Constant VelocityとLSTM) を,車両内のモデル展開中に観測される機能的不整合をシミュレートする様々な摂動に対する堅牢性についてベンチマークする。
結果は、これらの摂動の存在下では著しい性能低下を示し、一般的に用いられる軌道予測評価指標では誤差が+1444.8\%まで増加した。
同様の摂動を持つモデルのトレーニングは、パフォーマンスの劣化を効果的に低減し、エラーは+87.5\%まで増加する。
我々は、効果的な緩和戦略であるにもかかわらず、訓練中の摂動によるデータの増強は予期せぬ摂動に対する堅牢性を保証するものではないと主張している。
さらに、入力を劣化させると、より正確な予測が起こり、モデルがデータの異なる要素間の真の関係を学習できないことを示唆する。
関連論文リスト
- Root Causing Prediction Anomalies Using Explainable AI [3.970146574042422]
本稿では,機械学習モデルにおける根源的性能劣化に対する説明可能なAI(XAI)の新たな応用法を提案する。
単一機能の破損は、カスケード機能、ラベル、コンセプトドリフトを引き起こす可能性がある。
我々は、パーソナライズされた広告に使用されるモデルの信頼性を向上させるために、この手法をうまく応用した。
論文 参考訳(メタデータ) (2024-03-04T19:38:50Z) - Evaluating the Robustness of Off-Road Autonomous Driving Segmentation
against Adversarial Attacks: A Dataset-Centric analysis [1.6538732383658392]
本研究では,逆入力摂動に対するセマンティックセグメンテーションモデルの脆弱性について検討する。
異なるセグメンテーションネットワークアーキテクチャに対する敵攻撃の効果を比較する。
この研究は、オフロード非構造環境における自律ロボットUnimog U5023の安全なナビゲーションに寄与する。
論文 参考訳(メタデータ) (2024-02-03T13:48:57Z) - Hacking Predictors Means Hacking Cars: Using Sensitivity Analysis to
Identify Trajectory Prediction Vulnerabilities for Autonomous Driving
Security [2.1301560294088318]
本稿では,2つの軌道予測モデルである Trajectron++ と AgentFormer の感度解析を行う。
すべての入力の間に、Trajectron++の摂動感度のほぼ全ては、最新の状態履歴の時点にのみ存在することを観察する。
さらに、状態履歴の摂動に支配的な感度があるにもかかわらず、検出不能な画像マップ摂動が大きな予測誤差の増加を引き起こすことを実証した。
論文 参考訳(メタデータ) (2024-01-18T18:47:29Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Seeing is not Believing: Robust Reinforcement Learning against Spurious
Correlation [57.351098530477124]
国家の異なる部分には、保存されていない共同設立者が引き起こす相関関係が存在しない。
このような役に立たないあるいは有害な相関を学習するモデルは、テストケースの共同創設者がトレーニングケースから逸脱したときに破滅的に失敗する可能性がある。
したがって、単純かつ非構造的な不確実性集合を仮定する既存の頑健なアルゴリズムは、この問題に対処するには不十分である。
論文 参考訳(メタデータ) (2023-07-15T23:53:37Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Benchmark for Models Predicting Human Behavior in Gap Acceptance
Scenarios [4.801975818473341]
我々は、どんなモデルでも、どんなメトリクスでも、どんなシナリオでも、容易に評価できるフレームワークを開発します。
次に、このフレームワークを最先端の予測モデルに適用する。
論文 参考訳(メタデータ) (2022-11-10T09:59:38Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - CausalAgents: A Robustness Benchmark for Motion Forecasting using Causal
Relationships [8.679073301435265]
既存のデータに摂動を適用することにより、モデルロバスト性の評価と改善のための新しいベンチマークを構築する。
我々はこれらのラベルを使用して、現場から非因果的エージェントを削除することでデータを摂動する。
非因果摂動下では, minADE の相対的な変化は, 原型と比較して25$-$38%である。
論文 参考訳(メタデータ) (2022-07-07T21:28:23Z) - Tracking the risk of a deployed model and detecting harmful distribution
shifts [105.27463615756733]
実際には、デプロイされたモデルのパフォーマンスが大幅に低下しないという、良心的なシフトを無視することは理にかなっている。
我々は,警告を発射する有効な方法は,(a)良性な警告を無視しながら有害なシフトを検知し,(b)誤報率を増大させることなく,モデル性能の連続的なモニタリングを可能にすることを論じる。
論文 参考訳(メタデータ) (2021-10-12T17:21:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。