論文の概要: Ergo, SMIRK is Safe: A Safety Case for a Machine Learning Component in a
Pedestrian Automatic Emergency Brake System
- arxiv url: http://arxiv.org/abs/2204.07874v1
- Date: Sat, 16 Apr 2022 21:28:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 17:08:08.623182
- Title: Ergo, SMIRK is Safe: A Safety Case for a Machine Learning Component in a
Pedestrian Automatic Emergency Brake System
- Title(参考訳): ergo, smirk is safe: 歩行者自動緊急ブレーキシステムにおける機械学習コンポーネントの安全ケース
- Authors: Markus Borg, Jens Henriksson, Kasper Socha, Olof Lennartsson, Elias
Sonnsj\"o L\"onegren, Thanh Bui, Piotr Tomaszewski, Sankar Raman
Sathyamoorthy, Sebastian Brink, Mahshid Helali Moghadam
- Abstract要約: 重要なアプリケーションにおける機械学習(ML)コンポーネントの統合は、ソフトウェア認証と検証に新たな課題をもたらす。
MLベースのシステムの安全性を支援するため、新しい安全基準と技術ガイドラインが開発中である。
MLをベースとした自動緊急制動デモ機SMIRKの安全保証に関する産学連携の結果を報告する。
- 参考スコア(独自算出の注目度): 5.571920596648914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integration of Machine Learning (ML) components in critical applications
introduces novel challenges for software certification and verification. New
safety standards and technical guidelines are under development to support the
safety of ML-based systems, e.g., ISO 21448 SOTIF for the automotive domain and
the Assurance of Machine Learning for use in Autonomous Systems (AMLAS)
framework. SOTIF and AMLAS provide high-level guidance but the details must be
chiseled out for each specific case. We report results from an
industry-academia collaboration on safety assurance of SMIRK, an ML-based
pedestrian automatic emergency braking demonstrator running in an
industry-grade simulator. We present the outcome of applying AMLAS on SMIRK for
a minimalistic operational design domain, i.e., a complete safety case for its
integrated ML-based component. Finally, we report lessons learned and provide
both SMIRK and the safety case under an open-source licence for the research
community to reuse.
- Abstract(参考訳): 重要なアプリケーションにおける機械学習(ML)コンポーネントの統合は、ソフトウェア認証と検証に新たな課題をもたらす。
新しい安全基準と技術ガイドラインは、例えば自動車分野におけるISO 21448 SOTIFや自律システム(AMLAS)フレームワークにおける機械学習の保証など、MLベースのシステムの安全性をサポートするために開発中である。
SOTIFとAMLASは高レベルなガイダンスを提供するが、詳細は特定のケースごとに精査する必要がある。
本稿では,MLをベースとした自動緊急ブレーキデモ機SMIRKの安全保証に関する産学連携の結果について報告する。
本稿では,SMIRK に AMLAS を適用した最小限の操作設計領域,すなわち ML ベースコンポーネントの完全安全ケースについて述べる。
最後に,学習した教訓を報告し,研究コミュニティが再利用するためのオープンソースライセンスの下で,smirkとsafety caseの両方を提供する。
関連論文リスト
- SafeBench: A Safety Evaluation Framework for Multimodal Large Language Models [75.67623347512368]
MLLMの安全性評価を行うための総合的なフレームワークであるツールンを提案する。
我々のフレームワークは、包括的な有害なクエリデータセットと自動評価プロトコルで構成されています。
本研究では,広く利用されている15のオープンソースMLLMと6つの商用MLLMの大規模実験を行った。
論文 参考訳(メタデータ) (2024-10-24T17:14:40Z) - Eyes Closed, Safety On: Protecting Multimodal LLMs via Image-to-Text Transformation [98.02846901473697]
我々は,MLLMの本来の安全意識を生かしたトレーニング不要な保護手法であるECSO(Eyes Closed, Safety On)を提案する。
ECSOは、安全でない画像をテキストに適応的に変換することで、より安全な応答を生成し、予め整列されたLCMの本質的な安全性メカニズムを活性化する。
論文 参考訳(メタデータ) (2024-03-14T17:03:04Z) - ChatSOS: LLM-based knowledge Q&A system for safety engineering [0.0]
本研究では,LLMに基づく安全工学のQ&Aシステムを導入し,モデルの理解と応答精度を向上させる。
我々は、外部知識データベースを組み込むために、即時エンジニアリングを採用し、LLMを最新かつ信頼性の高い情報で強化する。
以上の結果から,外部知識の統合は,奥行き問題解析や自律的なタスク割り当てにおいて,LLMの能力を大幅に向上させることが示唆された。
論文 参考訳(メタデータ) (2023-12-14T03:25:23Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Benchmarking Automated Machine Learning Methods for Price Forecasting
Applications [58.720142291102135]
自動機械学習(AutoML)ソリューションで手作業で作成したMLパイプラインを置換する可能性を示す。
CRISP-DMプロセスに基づいて,手動MLパイプラインを機械学習と非機械学習に分割した。
本稿では、価格予測の産業利用事例として、ドメイン知識とAutoMLを組み合わせることで、ML専門家への依存が弱まることを示す。
論文 参考訳(メタデータ) (2023-04-28T10:27:38Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Reliability Assessment and Safety Arguments for Machine Learning
Components in Assuring Learning-Enabled Autonomous Systems [19.65793237440738]
LES(Learning-Enabled Systems)のための総合保証フレームワークを提案する。
次に、ML分類器のための新しいモデルに依存しない信頼性評価モデル(RAM)を提案する。
モデル仮定と、我々のRAMが発見したML信頼性を評価するための固有の課題について論じる。
論文 参考訳(メタデータ) (2021-11-30T14:39:22Z) - SoK: Machine Learning Governance [16.36671448193025]
このような利益とリスクのバランスをとるため、MLガバナンスの概念を開発します。
私たちは、MLシステムの障害の原因となるプリンシパルを保持するためにアイデンティティを使用します。
私たちは、モデルオーナーがシステムのライフサイクルを管理することができる技術の必要性を強調します。
論文 参考訳(メタデータ) (2021-09-20T17:56:22Z) - Guidance on the Assurance of Machine Learning in Autonomous Systems
(AMLAS) [16.579772998870233]
自律システム(AMLAS)における機械学習の保証手法について紹介する。
AMLASは、一連の安全ケースパターンと、MLコンポーネントの開発に安全保証を統合するプロセスから構成される。
論文 参考訳(メタデータ) (2021-02-02T15:41:57Z) - Safety design concepts for statistical machine learning components
toward accordance with functional safety standards [0.38073142980732994]
近年,統計機械学習の誤判定により,キュリアルな事故や事故が報告されている。
本稿では,機能安全基準に従って,コンポーネントに対する5種類の技術安全概念(TSC)を整理する。
論文 参考訳(メタデータ) (2020-08-04T01:01:00Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。