論文の概要: Determining Absence of Unreasonable Risk: Approval Guidelines for an Automated Driving System Release
- arxiv url: http://arxiv.org/abs/2505.09880v1
- Date: Thu, 15 May 2025 00:52:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.145583
- Title: Determining Absence of Unreasonable Risk: Approval Guidelines for an Automated Driving System Release
- Title(参考訳): 不合理なリスクの欠如を判断する:自動運転システムリリースの承認ガイドライン
- Authors: Francesca Favaro, Scott Schnelle, Laura Fraade-Blanar, Trent Victor, Mauricio Peña, Nick Webb, Holland Broce, Craig Paterson, Dan Smith,
- Abstract要約: 本稿では,不合理なリスクの判定方法の概要について述べる。
準備の整合性の決定は、その中核にある、リスク評価プロセスです。
- 参考スコア(独自算出の注目度): 1.2499098866326646
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper provides an overview of how the determination of absence of unreasonable risk can be operationalized. It complements previous theoretical work published by existing developers of Automated Driving Systems (ADS) on the overall engineering practices and methodologies for readiness determination. Readiness determination is, at its core, a risk assessment process. It is aimed at evaluating the residual risk associated with the deployment of a new software release candidate. The paper proposes methodological criteria to ground the readiness review process for an ADS release. While informed by Waymo's experience in this domain, the criteria presented are agnostic of any specific ADS technological solution and/or architectural choice, to support broad implementation by others in the industry. The paper continues with a discussion on governance and decision-making toward approval of a new software release candidate for the ADS. The implementation of the presented criteria requires the existence of appropriate safety management practices in addition to many other cultural, procedural, and operational considerations. As such, the paper is concluded by a statement of limitations for those wishing to replicate part or all of its content.
- Abstract(参考訳): 本稿では,不合理なリスクの判定方法の概要について述べる。
これまでのADS(Automated Driving Systems)の開発者による、準備の整合性決定のための総合的なエンジニアリングプラクティスと方法論に関する理論的な研究を補完するものだ。
準備の整合性の決定は、その中核にある、リスク評価プロセスです。
これは、新しいソフトウェアリリース候補の配置に伴う残留リスクを評価することを目的としている。
本稿は, ADS リリースの可読性レビュープロセスの基礎となる方法論的基準を提案する。
この領域でのWaymoの経験から、提示される基準は、業界内の他の人々による広範な実装をサポートするために、特定のADS技術ソリューションや/またはアーキテクチャの選択に依存しない。
この記事では、ADSの新しいソフトウェアリリース候補の承認に向けたガバナンスと意思決定に関する議論を継続する。
提示された基準の実装には、他の多くの文化的、手続き的、運用上の考慮に加えて、適切な安全管理プラクティスの存在が必要である。
そのため、この論文は、一部または全内容の複製を希望する人々に対する制限の声明で締めくくられている。
関連論文リスト
- Doing Audits Right? The Role of Sampling and Legal Content Analysis in Systemic Risk Assessments and Independent Audits in the Digital Services Act [0.0]
欧州連合のデジタルサービス法(DSA)では、オンラインプラットフォームが内部および外部監査を受ける必要がある。
本稿では,システムリスクを監査するための質的,定量的な方法の長所と短所について検討する。
我々は、コンテンツサンプリングと法的および実証的な分析を組み合わせることで、リスク特異的監査のための実行可能な方法を提供すると論じている。
論文 参考訳(メタデータ) (2025-05-06T15:02:54Z) - Adapting Probabilistic Risk Assessment for AI [0.0]
汎用人工知能(AI)システムは、緊急リスク管理の課題を示す。
現在の手法は、しばしば選択的なテストとリスク優先順位に関する未文書の仮定に依存します。
本稿では,AIフレームワークの確率的リスクアセスメント(PRA)を紹介する。
論文 参考訳(メタデータ) (2025-04-25T17:59:14Z) - Understanding and Mitigating Risks of Generative AI in Financial Services [22.673239064487667]
我々は、金融サービスドメインに特有のAIコンテンツ安全性の考察を強調し、関連するAIコンテンツリスク分類を概説することを目指している。
我々は,既存のオープンソース技術ガードレールソリューションがこの分類をレッドチーム活動を通じて収集されたデータに基づいて評価することによってどのようにカバーするかを評価する。
論文 参考訳(メタデータ) (2025-04-25T16:55:51Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - ARTAI: An Evaluation Platform to Assess Societal Risk of Recommender Algorithms [6.697530342907843]
ARTAIは,推薦アルゴリズムの大規模評価を可能にする評価環境である。
本稿では,コンテンツ配信における有害なパターンを大規模に評価できる評価環境ARTAIを提案する。
論文 参考訳(メタデータ) (2024-09-19T01:39:51Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - ABI Approach: Automatic Bias Identification in Decision-Making Under Risk based in an Ontology of Behavioral Economics [46.57327530703435]
損失回避のようなバイアスによって引き起こされる損失に対する優先順位を求めるリスクは、課題を引き起こし、深刻なネガティブな結果をもたらす可能性がある。
本研究は,リスクサーチの選好を自動的に識別し,説明することにより,組織意思決定者を支援する新しいソリューションであるABIアプローチを紹介する。
論文 参考訳(メタデータ) (2024-05-22T23:53:46Z) - Accountability in Offline Reinforcement Learning: Explaining Decisions
with a Corpus of Examples [70.84093873437425]
本稿では、オフラインデータセットを決定コーパスとして利用するAOC(Accountable Offline Controller)を紹介する。
AOCはローデータシナリオで効果的に動作し、厳密なオフラインの模倣設定まで拡張でき、保存性と適応性の両方の品質を示す。
シミュレーションおよび実世界の医療シナリオにおいて、AOCのパフォーマンスを評価し、説明責任を維持しながら高いレベルのパフォーマンスでオフライン制御タスクを管理する能力を強調した。
論文 参考訳(メタデータ) (2023-10-11T17:20:32Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Pass-Fail Criteria for Scenario-Based Testing of Automated Driving
Systems [0.0]
本稿では,通常運転時の自動走行システムの動作安全性を評価するための枠組みを提案する。
リスクベースのルールは、1つのテストケースからパス/フェイルを決定できない。
これは、多くの個々のテストにおける統計的パフォーマンスを考慮に入れている。
論文 参考訳(メタデータ) (2020-05-19T13:13:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。