論文の概要: Towards the Unification and Data-Driven Synthesis of Autonomous Vehicle
Safety Concepts
- arxiv url: http://arxiv.org/abs/2107.14412v1
- Date: Fri, 30 Jul 2021 03:16:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 12:51:21.655209
- Title: Towards the Unification and Data-Driven Synthesis of Autonomous Vehicle
Safety Concepts
- Title(参考訳): 自動運転安全概念の統一化とデータ駆動合成に向けて
- Authors: Andrea Bajcsy, Karen Leung, Edward Schmerling, Marco Pavone
- Abstract要約: 我々は、既存の安全概念を比較するための統一的な数学的枠組みとして、ハミルトン・ヤコビ(HJ)の到達可能性の使用を提唱する。
i) 既存の主要な安全概念をHJリーチビリティフレームワークに組み込むことができ、モデリングの仮定を比較・対比するための共通言語を可能にする。
- 参考スコア(独自算出の注目度): 31.13851159912757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As safety-critical autonomous vehicles (AVs) will soon become pervasive in
our society, a number of safety concepts for trusted AV deployment have been
recently proposed throughout industry and academia. Yet, agreeing upon an
"appropriate" safety concept is still an elusive task. In this paper, we
advocate for the use of Hamilton Jacobi (HJ) reachability as a unifying
mathematical framework for comparing existing safety concepts, and propose ways
to expand its modeling premises in a data-driven fashion. Specifically, we show
that (i) existing predominant safety concepts can be embedded in the HJ
reachability framework, thereby enabling a common language for comparing and
contrasting modeling assumptions, and (ii) HJ reachability can serve as an
inductive bias to effectively reason, in a data-driven context, about two
critical, yet often overlooked aspects of safety: responsibility and
context-dependency.
- Abstract(参考訳): 安全クリティカルな自動運転車(AV)が近日中に私たちの社会に普及するにつれて、信頼されたAV配備のための多くの安全概念が産業や学界で最近提案されている。
しかし、「適切な」安全概念に同意することは、いまだ明白な課題である。
本稿では、既存の安全概念を比較するための統一的な数学的枠組みとしてハミルトン・ヤコビ(HJ)リーチビリティ(HJ)を用いることを提唱し、データ駆動方式でモデリング前提を拡張する方法を提案する。
具体的には、(i)既存の主要な安全概念をHJリーチビリティフレームワークに組み込むことにより、モデリングの仮定を比較・対比するための共通言語を可能にすることを示し、(ii)HJリーチビリティは、データ駆動の文脈において、安全の2つの重要な側面、すなわち責任とコンテキスト依存性を効果的に推論するための帰納的バイアスとして機能することを示します。
関連論文リスト
- Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Cross-Modality Safety Alignment [73.8765529028288]
我々は、モダリティ間の安全アライメントを評価するために、セーフインプットとアンセーフアウトプット(SIUO)と呼ばれる新しい安全アライメントの課題を導入する。
この問題を実証的に調査するため,我々はSIUOを作成した。SIUOは,自己修復,違法行為,プライバシー侵害など,9つの重要な安全領域を含むクロスモダリティベンチマークである。
以上の結果から, クローズドおよびオープンソース両方のLVLMの安全性上の重大な脆弱性が明らかとなり, 複雑で現実的なシナリオを確実に解釈し, 応答する上で, 現行モデルが不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T16:14:15Z) - SafeInfer: Context Adaptive Decoding Time Safety Alignment for Large Language Models [5.6874111521946356]
安全に整合した言語モデルは、しばしば脆弱で不均衡な安全メカニズムを示す。
文脈適応型デコード型安全アライメント戦略であるSafeInferを提案する。
HarmEvalは、広範な安全性評価のための新しいベンチマークである。
論文 参考訳(メタデータ) (2024-06-18T05:03:23Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Ring-A-Bell! How Reliable are Concept Removal Methods for Diffusion Models? [52.238883592674696]
Ring-A-Bellは、T2I拡散モデルのためのモデルに依存しないレッドチームツールである。
これは、不適切なコンテンツの生成に対応する拡散モデルに対する問題的プロンプトを特定する。
この結果から,安全プロンプトベンチマークの操作により,既存の安全メカニズムを回避できると考えられるプロンプトを変換できることが示唆された。
論文 参考訳(メタデータ) (2023-10-16T02:11:20Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Interpreting Safety Outcomes: Waymo's Performance Evaluation in the
Context of a Broader Determination of Safety Readiness [0.0]
本稿では,観測結果と他の推定手法を補完する安全性判定への多角的アプローチの必要性を強調した。
ADSのクラッシュデータと人間由来のベースラインの比較における「クレディビリティ・パラドックス」の提示、インユースモニタリングによる継続的信頼成長の認識、イベントレベルの適切な推論による総合統計分析を補完する必要性、などが議論の焦点となっている。
論文 参考訳(メタデータ) (2023-06-23T14:26:40Z) - Safety-aware Policy Optimisation for Autonomous Racing [17.10371721305536]
ハミルトン・ヤコビ(HJ)到達可能性理論を制約付きマルコフ決定過程(CMDP)フレームワークに導入する。
我々は,HJの安全性を視覚的文脈で直接学習できることを実証した。
我々は、最近リリースされた高忠実な自律走行環境であるSafety GymやLearning-to-Race (L2R)など、いくつかのベンチマークタスクにおいて、本手法の評価を行った。
論文 参考訳(メタデータ) (2021-10-14T20:15:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。