論文の概要: Savvy: Trustworthy Autonomous Vehicles Architecture
- arxiv url: http://arxiv.org/abs/2402.14580v1
- Date: Thu, 8 Feb 2024 07:24:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-25 16:42:38.322728
- Title: Savvy: Trustworthy Autonomous Vehicles Architecture
- Title(参考訳): Savvy:信頼できる自動運転車アーキテクチャ
- Authors: Ali Shoker, Rehana Yasmin, Paulo Esteves-Verissimo
- Abstract要約: 死亡事故の増加は、完全自動運転車のメインストリーム化を妨げている。
両世界のベストを達成できる、信頼に足る新しいインテリジェントなAVアーキテクチャであるSavvyを提案する。
これは、よりリッチまたはより高速なアウトプットを提供するためにチューニング可能な動的MLモデルを使用することで、ガイド付きタイムアウェアな予測品質劣化(TPQD)によって達成される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing interest in Autonomous Vehicles (AV) is notable due to
business, safety, and performance reasons. While there is salient success in
recent AV architectures, hinging on the advancements in AI models, there is a
growing number of fatal incidents that impedes full AVs from going mainstream.
This calls for the need to revisit the fundamentals of building safety-critical
AV architectures. However, this direction should not deter leveraging the power
of AI. To this end, we propose Savvy, a new trustworthy intelligent AV
architecture that achieves the best of both worlds. Savvy makes a clear
separation between the control plane and the data plane to guarantee the
safety-first principles. The former assume control to ensure safety using
design-time defined rules, while launching the latter for optimizing decisions
as much as possible within safety time-bounds. This is achieved through guided
Time-aware predictive quality degradation (TPQD): using dynamic ML models that
can be tuned to provide either richer or faster outputs based on the available
safety time bounds. For instance, Savvy allows to safely identify an elephant
as an obstacle (a mere object) the earliest possible, rather than optimally
recognizing it as an elephant when it is too late. This position paper presents
the Savvy's motivations and concept, whereas empirical evaluation is a work in
progress.
- Abstract(参考訳): 自動運転車(av)への関心の高まりは、ビジネス、安全性、性能上の理由から注目される。
近年のAVアーキテクチャでは、AIモデルの進歩によって大きな成功を収めているが、完全なAVが主流になることを妨げる致命的なインシデントが増えている。
これにより、安全クリティカルなAVアーキテクチャ構築の基礎を再考する必要がある。
しかし、この方向はAIの力を活用することを妨げてはならない。
この目的のために、我々は両世界のベストを達成する新しい信頼に値するインテリジェントavアーキテクチャであるsavvyを提案する。
Savvyは、安全優先原則を保証するために、コントロールプレーンとデータプレーンを明確に分離する。
前者は、設計時定義のルールを使用して安全を確保するために制御を仮定し、後者は、安全時限内で可能な限り決定を最適化するために開始する。
これは、ガイド付きタイムアウェアの予測品質劣化(TPQD)によって実現される: 利用可能な安全時間境界に基づいて、よりリッチまたはより高速なアウトプットを提供するようにチューニング可能な動的MLモデルを使用する。
例えば、サビーは象が遅すぎるときに象として最適に認識するのではなく、できるだけ早く障害物(単なる物体)として安全に識別することができる。
本稿では,経験的評価が進行中であるのに対し,本研究の動機と概念について述べる。
関連論文リスト
- Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - SafeAligner: Safety Alignment against Jailbreak Attacks via Response Disparity Guidance [48.80398992974831]
SafeAlignerは、ジェイルブレイク攻撃に対する防御を強化するためのデコード段階で実装された方法論である。
安全性を高めるために訓練されたセンチネルモデルと、よりリスクの高い応答を生成するように設計されたイントルーダモデルである。
SafeAlignerは有害なトークンの発生を低減しつつ、有益トークンの可能性を高めることができることを示す。
論文 参考訳(メタデータ) (2024-06-26T07:15:44Z) - Stackelberg Driver Model for Continual Policy Improvement in
Scenario-Based Closed-Loop Autonomous Driving [5.765939495779461]
安全クリティカルなシナリオを合成するための効率的な手法のクラスとして、敵生成法が登場した。
Stackelberg Driver Model (SDM) を調整し、車両相互作用の階層的な性質を正確に特徴づける。
提案アルゴリズムは,特に高次元シナリオにおいて,いくつかのベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-25T15:47:07Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety of autonomous vehicles: A survey on Model-based vs. AI-based
approaches [1.370633147306388]
AVの全体制御アーキテクチャを定義するための関連手法と概念について検討する。
このレビュープロセスを通じて、モデルベースの方法とAIベースのアプローチのいずれかを使用する研究を強調することを意図している。
本稿では,安全性検証技術と安全フレームワークの標準化・一般化という,AVの安全性を保証するための手法について論じる。
論文 参考訳(メタデータ) (2023-05-29T08:05:32Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Fast or Accurate? Governing Conflicting Goals in Highly Autonomous
Vehicles [3.3605894204326994]
AVの精度と速度の基本的な工学的トレードオフを理解することは、AVシステムに固有の不確実性とリスクを規制する政策立案者にとって非常に重要である、と我々は主張する。
これにより、効率的な規制の促進、トルト回復の障壁の低減、安全や説明責任といった公共の価値観の適切なバランスを確保することで、製造業者から公共へのパワーバランスをシフトする。
論文 参考訳(メタデータ) (2022-08-03T13:24:25Z) - Bootstrapping confidence in future safety based on past safe operation [0.0]
本研究は,運転初期における事故発生確率の低い信頼度へのアプローチを示す。
これにより、不運な運転が安全への自信を確証することを願って、限られた基準でシステムを操作するという一般的なアプローチが定式化される。
論文 参考訳(メタデータ) (2021-10-20T18:36:23Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Assessing Safety-Critical Systems from Operational Testing: A Study on
Autonomous Vehicles [3.629865579485447]
安全クリティカルシステム(SCS)の信頼性と安全性の実証は依然として難しい問題である。
我々は、信頼性を示す問題を再考するために、現在の例として自律走行車(AV)を使用します。
論文 参考訳(メタデータ) (2020-08-19T19:50:56Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。