論文の概要: Review of the AMLAS Methodology for Application in Healthcare
- arxiv url: http://arxiv.org/abs/2209.00421v1
- Date: Thu, 1 Sep 2022 13:00:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 14:20:24.234118
- Title: Review of the AMLAS Methodology for Application in Healthcare
- Title(参考訳): 医療への応用のためのamlas方法論のレビュー
- Authors: Shakir Laher, Carla Brackstone, Sara Reis, An Nguyen, Sean White,
Ibrahim Habli
- Abstract要約: 患者の安全が損なわれないように、MLの安全性を積極的に保証する必要がある。
Assurance of Machine Learning for use in autonomous Systems methodは、Assuring Autonomy International Programmeによって開発された。
本総説では,ML製造業者に対して,現行の安全保証プラクティスから収束するか,逸脱するかを判断するため,方法論を査定した。
- 参考スコア(独自算出の注目度): 2.6072209210124675
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, the number of machine learning (ML) technologies gaining
regulatory approval for healthcare has increased significantly allowing them to
be placed on the market. However, the regulatory frameworks applied to them
were originally devised for traditional software, which has largely rule-based
behaviour, compared to the data-driven and learnt behaviour of ML. As the
frameworks are in the process of reformation, there is a need to proactively
assure the safety of ML to prevent patient safety being compromised. The
Assurance of Machine Learning for use in Autonomous Systems (AMLAS) methodology
was developed by the Assuring Autonomy International Programme based on
well-established concepts in system safety. This review has appraised the
methodology by consulting ML manufacturers to understand if it converges or
diverges from their current safety assurance practices, whether there are gaps
and limitations in its structure and if it is fit for purpose when applied to
the healthcare domain. Through this work we offer the view that there is clear
utility for AMLAS as a safety assurance methodology when applied to healthcare
machine learning technologies, although development of healthcare specific
supplementary guidance would benefit those implementing the methodology.
- Abstract(参考訳): 近年、医療に対する規制当局の承認を得た機械学習(ml)技術の数は大幅に増加し、市場に投入されている。
しかしながら、それらに適用される規制フレームワークは、MLのデータ駆動と学習の振る舞いと比較して、主にルールベースの振る舞いを持つ従来のソフトウェアのために考案されたものだ。
フレームワークは改革の過程にあるため、患者の安全が損なわれないように、積極的にMLの安全性を保証する必要がある。
Assurance of Machine Learning for Use in Autonomous Systems (AMLAS) は、システム安全性の確立された概念に基づいて、Assuring Autonomy International Programmeによって開発された。
本総説では,ML製造業者に対して,現在の安全保証プラクティスの収束・分散,構造にギャップと限界があるか,医療分野に適用した場合の目的に適したか,などについて検討した。
本研究を通じて,医療用機械学習技術に適用した場合の安全保証方法論としてのAMLASの明確な有用性は明らかである。
関連論文リスト
- Demystifying Large Language Models for Medicine: A Primer [50.83806796466396]
大規模言語モデル(LLM)は、医療のさまざまな側面に革命をもたらすことのできる、変革的なAIツールのクラスである。
本チュートリアルは、LSMを臨床実践に効果的に統合するために必要なツールを医療専門家に提供することを目的としている。
論文 参考訳(メタデータ) (2024-10-24T15:41:56Z) - Beyond One-Time Validation: A Framework for Adaptive Validation of Prognostic and Diagnostic AI-based Medical Devices [55.319842359034546]
既存のアプローチは、これらのデバイスを実際にデプロイする際の複雑さに対処するのに不足することが多い。
提示されたフレームワークは、デプロイメント中に検証と微調整を繰り返すことの重要性を強調している。
現在の米国とEUの規制分野に位置づけられている。
論文 参考訳(メタデータ) (2024-09-07T11:13:52Z) - MedISure: Towards Assuring Machine Learning-based Medical Image
Classifiers using Mixup Boundary Analysis [3.1256597361013725]
機械学習(ML)モデルは医療技術に不可欠なものになりつつある。
従来のソフトウェア保証技術は固定コードに依存しており、MLモデルに直接適用されない。
本稿では,予測公正度の観点から画像分類器の評価を容易にするMix-Up Boundary Analysis(MUBA)を提案する。
論文 参考訳(メタデータ) (2023-11-23T12:47:43Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Towards Developing Safety Assurance Cases for Learning-Enabled Medical
Cyber-Physical Systems [3.098385261166847]
我々は、学習可能なMCPSにおける機械学習コントローラの安全性保証ケースを開発する。
我々は,人工膵システムにおける予測のためのディープニューラルネットワークを実装することで,詳細な解析を行う。
本稿では,MLデータの妥当性を確認し,形式的検証を用いてMLに基づく予測の正しさを解析する。
論文 参考訳(メタデータ) (2022-11-23T22:43:48Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - The Role of Explainability in Assuring Safety of Machine Learning in
Healthcare [9.462125772941347]
本稿では、MLベースのシステムの安全性保証に説明可能なAI手法が寄与する方法について述べる。
結果は安全引数として表現され、どのようにして説明可能なAIメソッドが安全ケースに寄与できるかを示す。
論文 参考訳(メタデータ) (2021-09-01T09:32:14Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - Guidance on the Assurance of Machine Learning in Autonomous Systems
(AMLAS) [16.579772998870233]
自律システム(AMLAS)における機械学習の保証手法について紹介する。
AMLASは、一連の安全ケースパターンと、MLコンポーネントの開発に安全保証を統合するプロセスから構成される。
論文 参考訳(メタデータ) (2021-02-02T15:41:57Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Usable Security for ML Systems in Mental Health: A Framework [2.436681150766912]
本稿では、メンタルヘルスにおける機械学習システムのセキュリティ関連の設計、実装、展開をガイドし、評価するためのフレームワークを紹介する。
我々は、メンタルヘルスにおけるこれらのMLシステムのエンドユーザーに対して、セキュリティメカニズムを利用できるようにするための新しい原則と要件を提案する。
本稿では、メンタルヘルスアプリケーションにおけるMLシステムにおけるさまざまなセキュリティケースとプロファイルを検査し、評価する、いくつかの具体的なシナリオについて述べる。
論文 参考訳(メタデータ) (2020-08-18T04:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。