論文の概要: Guidance on the Assurance of Machine Learning in Autonomous Systems
(AMLAS)
- arxiv url: http://arxiv.org/abs/2102.01564v1
- Date: Tue, 2 Feb 2021 15:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 16:37:31.245857
- Title: Guidance on the Assurance of Machine Learning in Autonomous Systems
(AMLAS)
- Title(参考訳): 自律システム(AMLAS)における機械学習の保証に関するガイダンス
- Authors: Richard Hawkins, Colin Paterson, Chiara Picardi, Yan Jia, Radu
Calinescu and Ibrahim Habli
- Abstract要約: 自律システム(AMLAS)における機械学習の保証手法について紹介する。
AMLASは、一連の安全ケースパターンと、MLコンポーネントの開発に安全保証を統合するプロセスから構成される。
- 参考スコア(独自算出の注目度): 16.579772998870233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning (ML) is now used in a range of systems with results that are
reported to exceed, under certain conditions, human performance. Many of these
systems, in domains such as healthcare , automotive and manufacturing, exhibit
high degrees of autonomy and are safety critical. Establishing justified
confidence in ML forms a core part of the safety case for these systems. In
this document we introduce a methodology for the Assurance of Machine Learning
for use in Autonomous Systems (AMLAS). AMLAS comprises a set of safety case
patterns and a process for (1) systematically integrating safety assurance into
the development of ML components and (2) for generating the evidence base for
explicitly justifying the acceptable safety of these components when integrated
into autonomous system applications.
- Abstract(参考訳): 機械学習(ML)は、現在、特定の条件下では人間のパフォーマンスを超えると報告された結果を持つ様々なシステムで使用されている。
これらのシステムの多くは、ヘルスケア、自動車、製造業などの分野で、高い自律性を示し、安全性が重要です。
MLの正当性を確立することは、これらのシステムの安全ケースの中核をなす。
本稿では,自律システム(AMLAS)における機械学習の保証に関する方法論を紹介する。
AMLASは、(1)MLコンポーネントの開発に安全保証を体系的に統合する工程と、(2)自律システムアプリケーションに統合された場合に、これらのコンポーネントの許容される安全性を明確に正当化するエビデンスベースを生成する工程と、からなる。
関連論文リスト
- Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Ergo, SMIRK is Safe: A Safety Case for a Machine Learning Component in a
Pedestrian Automatic Emergency Brake System [5.571920596648914]
重要なアプリケーションにおける機械学習(ML)コンポーネントの統合は、ソフトウェア認証と検証に新たな課題をもたらす。
MLベースのシステムの安全性を支援するため、新しい安全基準と技術ガイドラインが開発中である。
MLをベースとした自動緊急制動デモ機SMIRKの安全保証に関する産学連携の結果を報告する。
論文 参考訳(メタデータ) (2022-04-16T21:28:50Z) - Reliability Assessment and Safety Arguments for Machine Learning
Components in Assuring Learning-Enabled Autonomous Systems [19.65793237440738]
LES(Learning-Enabled Systems)のための総合保証フレームワークを提案する。
次に、ML分類器のための新しいモデルに依存しない信頼性評価モデル(RAM)を提案する。
モデル仮定と、我々のRAMが発見したML信頼性を評価するための固有の課題について論じる。
論文 参考訳(メタデータ) (2021-11-30T14:39:22Z) - SoK: Machine Learning Governance [16.36671448193025]
このような利益とリスクのバランスをとるため、MLガバナンスの概念を開発します。
私たちは、MLシステムの障害の原因となるプリンシパルを保持するためにアイデンティティを使用します。
私たちは、モデルオーナーがシステムのライフサイクルを管理することができる技術の必要性を強調します。
論文 参考訳(メタデータ) (2021-09-20T17:56:22Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z) - Towards a Robust and Trustworthy Machine Learning System Development [0.09236074230806578]
最新のML信頼性と技術に関する最近の調査をセキュリティエンジニアリングの視点から紹介します。
次に、ML実践者のための標準的かつ視覚化された方法で知識の体を表すメタモデルを記述することによって、調査の前後に研究を進めます。
本稿では,堅牢で信頼性の高いMLシステムの開発を進めるための今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2021-01-08T14:43:58Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z) - Quantifying Assurance in Learning-enabled Systems [3.0938904602244355]
機械学習コンポーネントを組み込んだシステムの依存性保証は、安全クリティカルなアプリケーションで使用する上で重要なステップである。
本稿では, LESが信頼できるという保証の定量的概念を, 保証ケースのコアコンポーネントとして開発する。
本稿では,現実の自律型航空システムへの適用による保証対策の有用性について述べる。
論文 参考訳(メタデータ) (2020-06-18T08:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。