論文の概要: Cybersecurity of AI medical devices: risks, legislation, and challenges
- arxiv url: http://arxiv.org/abs/2303.03140v1
- Date: Mon, 6 Mar 2023 13:55:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 15:56:09.646039
- Title: Cybersecurity of AI medical devices: risks, legislation, and challenges
- Title(参考訳): AI医療機器のサイバーセキュリティ:リスク、法律、課題
- Authors: Elisabetta Biasin, Erik Kamenjasevic, Kaspar Rosager Ludvigsen
- Abstract要約: 本章は3部に分かれている。
最初の部分は、医療におけるサイバーセキュリティの役割を説明する場面から始まります。
第2部では、医療機器としてのAIのサイバーセキュリティを確保するための欧州連合の規制枠組みの概要を説明している。
第3部では、EUの規制枠組みから生じる可能性のある課題について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical devices and artificial intelligence systems rapidly transform
healthcare provisions. At the same time, due to their nature, AI in or as
medical devices might get exposed to cyberattacks, leading to patient safety
and security risks. This book chapter is divided into three parts. The first
part starts by setting the scene where we explain the role of cybersecurity in
healthcare. Then, we briefly define what we refer to when we talk about AI that
is considered a medical device by itself or supports one. To illustrate the
risks such medical devices pose, we provide three examples: the poisoning of
datasets, social engineering, and data or source code extraction. In the second
part, the paper provides an overview of the European Union's regulatory
framework relevant for ensuring the cybersecurity of AI as or in medical
devices (MDR, NIS Directive, Cybersecurity Act, GDPR, the AI Act proposal and
the NIS 2 Directive proposal). Finally, the third part of the paper examines
possible challenges stemming from the EU regulatory framework. In particular,
we look toward the challenges deriving from the two legislative proposals and
their interaction with the existing legislation concerning AI medical devices'
cybersecurity. They are structured as answers to the following questions: (1)
how will the AI Act interact with the MDR regarding the cybersecurity and
safety requirements?; (2) how should we interpret incident notification
requirements from the NIS 2 Directive proposal and MDR?; and (3) what are the
consequences of the evolving term of critical infrastructures?
[This is a draft chapter. The final version will be available in Research
Handbook on Health, AI and the Law edited by Barry Solaiman & I. Glenn Cohen,
forthcoming 2023, Edward Elgar Publishing Ltd]
- Abstract(参考訳): 医療機器と人工知能システムは、医療規定を急速に変える。
同時に、その性質上、医療機器のAIがサイバー攻撃にさらされる可能性があるため、患者の安全とセキュリティのリスクが生じる。
本章は3部に分かれている。
最初の部分は、医療におけるサイバーセキュリティの役割を説明する場面から始まります。
そして、医療機器と見なされる、あるいはそれをサポートするAIについて話すときに、私たちが言及するものを簡潔に定義する。
このような医療機器がもたらすリスクを説明するために、データセット、ソーシャルエンジニアリング、データまたはソースコード抽出の3つの例を挙げる。
第2部では、医療機器(MDR、NISディレクティブ、サイバーセキュリティ法、GDPR、AI法提案、NIS2ディレクティブ提案)としてのAIのサイバーセキュリティを確保するための欧州連合の規制枠組みの概要について述べる。
最後に、第3部では、EU規制枠組みから生じる可能性のある課題について検討する。
特に、2つの立法案から生じる課題と、ai医療機器のサイバーセキュリティに関する既存の法律との相互作用について考察する。
1)AI法は、サイバーセキュリティと安全要件に関して、MDRとどのように相互作用するのか?
; (2) nis 2 指令提案と mdr からのインシデント通知要件をどう解釈すべきか?
; そして(3) 重要なインフラの進化期の結果はどうなるのか?
[本章は草稿で、最終版は、バリー・ソライマン・I・グレン・コーエン編『健康・AI・法研究ハンドブック』2023年、エドワード・エルガー出版社(Edward Elgar Publishing Ltd.)に掲載される。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Towards AI-enabled Cyber Threat Assessment in the Health Sector [0.0]
このプロジェクトの目的は、医療機関の外部からセキュリティ関連情報を収集するAI対応プラットフォームを導入することである。
このプラットフォームはリスクスコアを提供し、医療機関の意思決定者をサポートし、セキュリティ対策のための投資選択を最適化する。
論文 参考訳(メタデータ) (2024-09-19T13:34:34Z) - SoK: Security and Privacy Risks of Medical AI [14.592921477833848]
テクノロジーと医療の統合は、人工知能と機械学習を利用したソフトウェアシステムが、医療製品やサービスの不可欠なコンポーネントとなった新しい時代に幕を閉じた。
本稿では、医療におけるAI/MLアプリケーションによるセキュリティとプライバシの脅威について検討する。
論文 参考訳(メタデータ) (2024-09-11T16:59:58Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - From Military to Healthcare: Adopting and Expanding Ethical Principles
for Generative Artificial Intelligence [10.577932700903112]
価値ある情報を効率的に生成するように設計された新興技術である生成AIは、大きな可能性を秘めている。
我々は、医療におけるジェネレーティブAIのためのガバナンス、信頼性、エクイティ、説明責任、トレーサビリティ、プライバシ、合法性、共感、自律性を含むGREAT PLEA倫理原則を提案する。
論文 参考訳(メタデータ) (2023-08-04T16:22:06Z) - The Design and Implementation of a National AI Platform for Public
Healthcare in Italy: Implications for Semantics and Interoperability [62.997667081978825]
イタリア国立衛生局は、その技術機関を通じて人工知能を採用している。
このような広大なプログラムには、知識領域の形式化に特別な注意が必要である。
AIが患者、開業医、健康システムに与える影響について疑問が投げかけられている。
論文 参考訳(メタデータ) (2023-04-24T08:00:02Z) - Why we do need Explainable AI for Healthcare [0.0]
我々は、Explainable AI研究プログラムが人間と機械の相互作用の中心であると主張している。
有効な懸念にもかかわらず、私たちはExplainable AI研究プログラムが人間と機械の相互作用の中心であると主張している。
論文 参考訳(メタデータ) (2022-06-30T15:35:50Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。