論文の概要: Improving Explainable Object-induced Model through Uncertainty for
Automated Vehicles
- arxiv url: http://arxiv.org/abs/2402.15572v1
- Date: Fri, 23 Feb 2024 19:14:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 18:00:30.647158
- Title: Improving Explainable Object-induced Model through Uncertainty for
Automated Vehicles
- Title(参考訳): 自動走行車の不確実性による説明可能な物体誘発モデルの改善
- Authors: Shihong Ling, Yue Wan, Xiaowei Jia, Na Du
- Abstract要約: 最近の説明可能な自動車両(AV)は、動作の説明を提供しながら、固有の不確実性に関連する重要な情報を無視している。
本研究は、意思決定の場面におけるオブジェクトの役割を優先する「対象誘導型」モデルアプローチに基づく。
また、不確実性によって導かれる先進的なトレーニング戦略についても検討する。
- 参考スコア(独自算出の注目度): 13.514721609660521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid evolution of automated vehicles (AVs) has the potential to provide
safer, more efficient, and comfortable travel options. However, these systems
face challenges regarding reliability in complex driving scenarios. Recent
explainable AV architectures neglect crucial information related to inherent
uncertainties while providing explanations for actions. To overcome such
challenges, our study builds upon the "object-induced" model approach that
prioritizes the role of objects in scenes for decision-making and integrates
uncertainty assessment into the decision-making process using an evidential
deep learning paradigm with a Beta prior. Additionally, we explore several
advanced training strategies guided by uncertainty, including
uncertainty-guided data reweighting and augmentation. Leveraging the BDD-OIA
dataset, our findings underscore that the model, through these enhancements,
not only offers a clearer comprehension of AV decisions and their underlying
reasoning but also surpasses existing baselines across a broad range of
scenarios.
- Abstract(参考訳): 自動運転車(AV)の急速な進化は、より安全で効率的で快適な旅行手段を提供する可能性がある。
しかし、これらのシステムは複雑な運転シナリオにおける信頼性に関する課題に直面している。
最近の説明可能なAVアーキテクチャは、動作の説明を提供しながら、固有の不確実性に関連する重要な情報を無視している。
このような課題を克服するため,本研究では,意思決定場面におけるオブジェクトの役割を優先する"object-induced"モデルアプローチを構築し,確固としたディープラーニングパラダイムを用いた意思決定プロセスに不確実性評価を統合する。
さらに,不確実性に基づくデータ重み付けや拡張など,不確実性に導かれる高度なトレーニング戦略についても検討する。
BDD-OIAデータセットを活用することで、これらの拡張を通じて、モデルがAV決定とその根底にある推論をより明確な理解を提供するだけでなく、さまざまなシナリオにおける既存のベースラインを超越する、ということが分かりました。
関連論文リスト
- INSIGHT: Enhancing Autonomous Driving Safety through Vision-Language Models on Context-Aware Hazard Detection and Edge Case Evaluation [7.362380225654904]
INSIGHTは、危険検出とエッジケース評価を強化するために設計された階層型視覚言語モデル(VLM)フレームワークである。
本手法は,マルチモーダルデータ融合を用いて意味表現と視覚表現を統合し,運転シナリオの正確な解釈を可能にする。
BDD100Kデータセットの実験結果は、既存のモデルよりもハザード予測の正確性と正確性を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2025-02-01T01:43:53Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Active Exploration via Autoregressive Generation of Missing Data [11.713451719120707]
自己回帰シーケンスモデルからのトレーニングと生成の問題として,オンライン意思決定において不確実な定量化と探索を行う。
われわれのアプローチは、適切な行動選択によって明らかになるであろう将来の成果の欠如から生じる不確実性に頼っている。
論文 参考訳(メタデータ) (2024-05-29T19:24:44Z) - AIDE: An Automatic Data Engine for Object Detection in Autonomous Driving [68.73885845181242]
本稿では,問題を自動的に識別し,データを効率よくキュレートし,自動ラベル付けによりモデルを改善する自動データエンジン(AIDE)を提案する。
さらに,AVデータセットのオープンワールド検出のためのベンチマークを構築し,様々な学習パラダイムを包括的に評価し,提案手法の優れた性能を低コストで実証する。
論文 参考訳(メタデータ) (2024-03-26T04:27:56Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - Safety-Critical Scenario Generation Via Reinforcement Learning Based
Editing [20.99962858782196]
本稿では,逐次編集による安全クリティカルなシナリオを生成する深層強化学習手法を提案する。
我々のフレームワークは、リスクと妥当性の両方の目的からなる報酬関数を用いています。
提案手法は, 従来手法と比較して, 品質の高い安全クリティカルなシナリオを生成することを示す。
論文 参考訳(メタデータ) (2023-06-25T05:15:25Z) - Unsupervised Self-Driving Attention Prediction via Uncertainty Mining
and Knowledge Embedding [51.8579160500354]
本研究では、不確実性モデリングと知識統合の駆動による自動運転の注意を予測できる教師なし手法を提案する。
結果は、完全に教師された最先端のアプローチと比較して、同等またはさらに印象的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-17T00:28:33Z) - Architectural patterns for handling runtime uncertainty of data-driven
models in safety-critical perception [1.7616042687330642]
不確実性推定に対処するためのアーキテクチャパターンを新たに提案する。
安全性と性能向上に関して,4つのパターンを質的,定量的に評価した。
筆者らは,運転状況の文脈情報を考慮することで,運転状況の固有のリスクに応じて,多かれ少なかれ不確実性を受け入れることができると結論付けた。
論文 参考訳(メタデータ) (2022-06-14T13:31:36Z) - UMBRELLA: Uncertainty-Aware Model-Based Offline Reinforcement Learning
Leveraging Planning [1.1339580074756188]
オフライン強化学習(RL)は、オフラインデータから意思決定を学ぶためのフレームワークを提供する。
自動運転車(SDV)は、おそらく準最適データセットの振る舞いよりも優れるポリシーを学ぶ。
これはモデルベースのオフラインRLアプローチの使用を動機付け、プランニングを活用する。
論文 参考訳(メタデータ) (2021-11-22T10:37:52Z) - Generalizing Decision Making for Automated Driving with an Invariant
Environment Representation using Deep Reinforcement Learning [55.41644538483948]
現在のアプローチは、トレーニングデータを超えてよく一般化されないか、または可変数のトラフィック参加者を考慮することができない。
本研究では,エゴ車の観点から不変環境表現を提案する。
この抽象化により,エージェントが未確認シナリオに対してうまく一般化できることが示される。
論文 参考訳(メタデータ) (2021-02-12T20:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。