論文の概要: Building a Credible Case for Safety: Waymo's Approach for the
Determination of Absence of Unreasonable Risk
- arxiv url: http://arxiv.org/abs/2306.01917v1
- Date: Fri, 2 Jun 2023 21:05:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 23:11:52.245213
- Title: Building a Credible Case for Safety: Waymo's Approach for the
Determination of Absence of Unreasonable Risk
- Title(参考訳): 安全のための信頼できるケースの構築--waymoによる不合理なリスクの欠如判定の試み
- Authors: Francesca Favaro, Laura Fraade-Blanar, Scott Schnelle, Trent Victor,
Mauricio Pe\~na, Johan Engstrom, John Scanlon, Kris Kusano, Dan Smith
- Abstract要約: 完全自律運転の安全ケースは、企業がAVシステムが安全であると判断する方法を説明する公式な方法である。
システムの説明、開発に使用する方法論、検証に使用するメトリクス、検証テストの実際の結果などが含まれる。
本稿では,システムの展開準備の仕方に関する基本的な考え方を提供することによって,このようなアライメントの実現を支援する。
- 参考スコア(独自算出の注目度): 2.2386635730984117
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents an overview of Waymo's approach to building a reliable
case for safety - a novel and thorough blueprint for use by any company
building fully autonomous driving systems. A safety case for fully autonomous
operations is a formal way to explain how a company determines that an AV
system is safe enough to be deployed on public roads without a human driver,
and it includes evidence to support that determination. It involves an
explanation of the system, the methodologies used to develop it, the metrics
used to validate it and the actual results of validation tests. Yet, in order
to develop a worthwhile safety case, it is first important to understand what
makes one credible and well crafted, and align on evaluation criteria. This
paper helps enabling such alignment by providing foundational thinking into not
only how a system is determined to be ready for deployment but also into
justifying that the set of acceptance criteria employed in such determination
is sufficient and that their evaluation (and associated methods) is credible.
The publication is structured around three complementary perspectives on safety
that build upon content published by Waymo since 2020: a layered approach to
safety; a dynamic approach to safety; and a credible approach to safety. The
proposed approach is methodology-agnostic, so that anyone in the space could
employ portions or all of it.
- Abstract(参考訳): 本稿では,完全自律運転システムを構築する企業において,安全のための信頼性の高いケースを構築するためのWaymoのアプローチの概要を紹介する。
完全自律運転の安全ケースは、AVシステムが人間のドライバーなしで公道に配備されるのに十分安全であると会社がどのように判断するかを説明する公式な方法であり、その決定を支持する証拠を含んでいる。
システムの説明、開発に使用する方法論、検証に使用するメトリクス、検証テストの実際の結果などが含まれる。
しかし、価値ある安全ケースを開発するためには、まず第一に、信頼性と熟練度を理解し、評価基準に合わせることが重要である。
本論文は,システムがどのように展開の準備が整ったかだけでなく,そのような判断に採用される受け入れ基準の集合が十分であり,その評価(および関連する方法)が信頼できることを正当化する基礎的な考え方を提供することによって,そのようなアライメントを可能にする。
この出版物は、2020年以降waymoが発行したコンテンツをベースにした安全に関する3つの補完的な視点に基づいて構成されており、安全性への階層的アプローチ、安全性への動的なアプローチ、そして安全に対する信頼できるアプローチである。
提案されたアプローチは方法論に依存しないため、空間内の誰でも一部あるいは全部を使用できる。
関連論文リスト
- What Makes and Breaks Safety Fine-tuning? A Mechanistic Study [64.9691741899956]
安全性の微調整は、大規模な言語モデル(LLM)を、安全なデプロイメントのための人間の好みに合わせるのに役立つ。
安全でない入力の健全な側面をキャプチャする合成データ生成フレームワークを設計する。
これを用いて,3つのよく知られた安全微調整手法について検討する。
論文 参考訳(メタデータ) (2024-07-14T16:12:57Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Towards a Completeness Argumentation for Scenario Concepts [0.2184775414778289]
本稿では,目標構造表記を用いたシナリオ概念の完全性について論じる。
シナリオの概念とinDデータセットにメソッドを適用して、ユーザビリティを証明する。
論文 参考訳(メタデータ) (2024-04-02T13:29:38Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - Towards Formal Fault Injection for Safety Assessment of Automated
Systems [0.0]
本稿では,開発ライフサイクルを通じてこれら2つのテクニックを融合したフォーマルなフォールトインジェクションを紹介する。
我々は,形式的手法と断層注入の相互支援の5つの領域を同定し,より密着的なアプローチを提唱する。
論文 参考訳(メタデータ) (2023-11-16T11:34:18Z) - Ring-A-Bell! How Reliable are Concept Removal Methods for Diffusion Models? [52.238883592674696]
Ring-A-Bellは、T2I拡散モデルのためのモデルに依存しないレッドチームツールである。
これは、不適切なコンテンツの生成に対応する拡散モデルに対する問題的プロンプトを特定する。
この結果から,安全プロンプトベンチマークの操作により,既存の安全メカニズムを回避できると考えられるプロンプトを変換できることが示唆された。
論文 参考訳(メタデータ) (2023-10-16T02:11:20Z) - Safety of autonomous vehicles: A survey on Model-based vs. AI-based
approaches [1.370633147306388]
AVの全体制御アーキテクチャを定義するための関連手法と概念について検討する。
このレビュープロセスを通じて、モデルベースの方法とAIベースのアプローチのいずれかを使用する研究を強調することを意図している。
本稿では,安全性検証技術と安全フレームワークの標準化・一般化という,AVの安全性を保証するための手法について論じる。
論文 参考訳(メタデータ) (2023-05-29T08:05:32Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - An Empirical Analysis of the Use of Real-Time Reachability for the
Safety Assurance of Autonomous Vehicles [7.1169864450668845]
本稿では,1/10スケールのオープンソース自動運転車プラットフォームの安全性を確保するために,シンプルなアーキテクチャの実装にリアルタイムリーチビリティアルゴリズムを提案する。
提案手法では,システムの将来状態に対するコントローラの判断の影響に着目して,基盤となるコントローラを解析する必要性を抽象化する。
論文 参考訳(メタデータ) (2022-05-03T11:12:29Z) - Bootstrapping confidence in future safety based on past safe operation [0.0]
本研究は,運転初期における事故発生確率の低い信頼度へのアプローチを示す。
これにより、不運な運転が安全への自信を確証することを願って、限られた基準でシステムを操作するという一般的なアプローチが定式化される。
論文 参考訳(メタデータ) (2021-10-20T18:36:23Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。