論文の概要: Risk Management of AI/ML Software as a Medical Device (SaMD): On ISO
14971 and Related Standards and Guidances
- arxiv url: http://arxiv.org/abs/2109.07905v1
- Date: Sat, 11 Sep 2021 04:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 09:14:16.722326
- Title: Risk Management of AI/ML Software as a Medical Device (SaMD): On ISO
14971 and Related Standards and Guidances
- Title(参考訳): 医療機器としてのAI/MLソフトウェア(SaMD)のリスク管理 : ISO 14971と関連規格とガイダンスについて
- Authors: Stephen G. Odaibo
- Abstract要約: 安全と有効性は医療機器規制の最も重要な目的である。
リスク管理は医療機器の規制を管理する基本的な原則である。
本稿では、リスク管理標準のISO 14971:2019が、人工知能(AI)/マカインラーニング(ML)SAMD規制フレームワークの他の部分とどのように結びついているのかをレビューする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Safety and efficacy are the paramount objectives of medical device
regulation. And in line with the medical ethos of non-maleficence, first do no
harm, safety is the primary goal of regulation also. As such, risk management
is the underlying principle that governs the regulation of medical devices,
whether traditional devices or Software as a Medical Device (SaMD). In this
article, I review how Risk Management Standard ISO 14971:2019 both connects
with and serves as a foundation for the other parts of the Artificial
Intelligence (AI)/Machine Learning (ML) SaMD regulatory framework.
- Abstract(参考訳): 安全と有効性は医療機器規制の最も重要な目的である。
医療の倫理に従えば、まずは危害を及ぼさないが、安全は規制の第一の目標でもある。
このように、リスク管理は、従来のデバイスであれ、医療機器(samd)としてのソフトウェアであれ、医療機器の規制を管理する基本的な原則である。
本稿では、リスクマネジメント標準のISO 14971:2019が、人工知能(AI)/マカインラーニング(ML)SAMD規制フレームワークの他の部分とどのように結びついているのかをレビューする。
関連論文リスト
- Defining and Evaluating Physical Safety for Large Language Models [62.4971588282174]
大型言語モデル (LLM) は、ドローンのようなロボットシステムを制御するためにますます使われている。
現実世界のアプリケーションに物理的な脅威や害をもたらすリスクは、まだ解明されていない。
我々は,ドローンの物理的安全性リスクを,(1)目標脅威,(2)目標脅威,(3)インフラ攻撃,(4)規制違反の4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2024-11-04T17:41:25Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Law-based and standards-oriented approach for privacy impact assessment in medical devices: a topic for lawyers, engineers and healthcare practitioners in MedTech [0.0]
ISOやIECのような非バインディング標準の採用は、設計による説明責任のプライバシを高めることによってプロセスを調和させることができる。
この研究は、医療機器の設計と運用におけるプライバシーと安全性を体系的に扱うために、ハード法と標準の両方を活用することを提唱している。
論文 参考訳(メタデータ) (2024-09-18T09:56:19Z) - AIR-Bench 2024: A Safety Benchmark Based on Risk Categories from Regulations and Policies [80.90138009539004]
AIR-Bench 2024は、新しい政府の規制や企業のポリシーに適合する最初のAI安全ベンチマークである。
8つの政府規制と16の企業政策を4階層の安全分類に分解し、最も低い階層に粒度の細かいリスクカテゴリを分類する。
AIR-Bench 2024上での言語モデルの評価を行い,その安全性に関する知見を明らかにした。
論文 参考訳(メタデータ) (2024-07-11T21:16:48Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - A hybrid Bayesian network for medical device risk assessment and
management [0.0]
ISO 14971は医療機器のリスク管理に使用される主要な規格である。
リスク管理を行うための特定の方法を規定していない。
本稿では,ハイブリッドベイズネットワークを用いた医療機器のリスク管理手法を提案する。
論文 参考訳(メタデータ) (2022-09-07T08:02:13Z) - Review of the AMLAS Methodology for Application in Healthcare [2.6072209210124675]
患者の安全が損なわれないように、MLの安全性を積極的に保証する必要がある。
Assurance of Machine Learning for use in autonomous Systems methodは、Assuring Autonomy International Programmeによって開発された。
本総説では,ML製造業者に対して,現行の安全保証プラクティスから収束するか,逸脱するかを判断するため,方法論を査定した。
論文 参考訳(メタデータ) (2022-09-01T13:00:36Z) - On Medical Device Software CE Compliance and Conformity Assessment [4.910937238451484]
医療機器の製造は当局によって厳しく管理されている。
製造業者は、医療機器が市販されている地域の規制要件に従わなければならない。
一般に、これらの要件は、物理デバイス、物理デバイス内で動作する組み込みソフトウェア、またはデバイス自体を構成するソフトウェアとは何の差も与えない。
論文 参考訳(メタデータ) (2021-03-11T17:35:40Z) - On Medical Device Cybersecurity Compliance in EU [4.3695508295565775]
我々は、現在利用可能なガイダンス資料に基づいて、新しいサイバーセキュリティ要件をレビューする。
これらの中核的な概念は、欧州連合の規制枠組みにおけるサイバーセキュリティコンプライアンスの基礎を形成している、と我々は主張する。
論文 参考訳(メタデータ) (2021-03-11T17:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。