論文の概要: Systems-Theoretic and Data-Driven Security Analysis in ML-enabled Medical Devices
- arxiv url: http://arxiv.org/abs/2506.15028v1
- Date: Wed, 18 Jun 2025 00:05:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.508885
- Title: Systems-Theoretic and Data-Driven Security Analysis in ML-enabled Medical Devices
- Title(参考訳): ML対応医療機器におけるシステム理論とデータ駆動型セキュリティ分析
- Authors: Gargi Mitra, Mohammadreza Hallajiyan, Inji Kim, Athish Pranav Dharmalingam, Mohammed Elnawawy, Shahrear Iqbal, Karthik Pattabiraman, Homa Alemzadeh,
- Abstract要約: 我々は、AI/ML対応医療機器の脅威状況を理解するために、デバイスリコールや有害事象、既知の脆弱性に関する公開データを解析する。
我々の研究は、メーカーがAI/ML対応医療機器の中核となる設計原則としてサイバーセキュリティを組み込むことを可能にすることを目的としています。
- 参考スコア(独自算出の注目度): 6.197430230611422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of AI/ML into medical devices is rapidly transforming healthcare by enhancing diagnostic and treatment facilities. However, this advancement also introduces serious cybersecurity risks due to the use of complex and often opaque models, extensive interconnectivity, interoperability with third-party peripheral devices, Internet connectivity, and vulnerabilities in the underlying technologies. These factors contribute to a broad attack surface and make threat prevention, detection, and mitigation challenging. Given the highly safety-critical nature of these devices, a cyberattack on these devices can cause the ML models to mispredict, thereby posing significant safety risks to patients. Therefore, ensuring the security of these devices from the time of design is essential. This paper underscores the urgency of addressing the cybersecurity challenges in ML-enabled medical devices at the pre-market phase. We begin by analyzing publicly available data on device recalls and adverse events, and known vulnerabilities, to understand the threat landscape of AI/ML-enabled medical devices and their repercussions on patient safety. Building on this analysis, we introduce a suite of tools and techniques designed by us to assist security analysts in conducting comprehensive premarket risk assessments. Our work aims to empower manufacturers to embed cybersecurity as a core design principle in AI/ML-enabled medical devices, thereby making them safe for patients.
- Abstract(参考訳): AI/MLの医療機器への統合は、診断と治療設備を強化することで、医療を急速に変革させている。
しかし、この進歩は、複雑でしばしば不透明なモデルの使用、広範な相互接続性、サードパーティの周辺機器との相互運用性、インターネット接続、基礎技術における脆弱性などによる深刻なサイバーセキュリティのリスクも引き起こす。
これらの要因は幅広い攻撃面に寄与し、脅威の予防、検出、緩和を困難にしている。
これらのデバイスが極めて安全性に批判的であることを考えると、これらのデバイスに対するサイバー攻撃は、MLモデルを誤予測させ、患者に重大な安全リスクをもたらす可能性がある。
したがって、これらのデバイスの安全性を設計時から確保することが不可欠である。
本稿では,ML 対応医療機器におけるサイバーセキュリティ問題に先行して対処する上での緊急性について述べる。
まず、AI/ML対応医療機器の脅威状況と、患者の安全性に対する影響を理解するために、デバイスリコールや有害事象、既知の脆弱性に関する公開データを分析します。
この分析に基づいて、セキュリティアナリストが包括的事前市場リスクアセスメントを実施するのを支援するために、我々は一連のツールや技術を紹介します。
我々の研究は、メーカーがAI/ML対応医療機器の中核となる設計原則としてサイバーセキュリティを組み込むことで、患者にとって安全なものにすることを目的としています。
関連論文リスト
- Frontier AI's Impact on the Cybersecurity Landscape [42.771086928042315]
本稿では,フロンティアAIがサイバーセキュリティに与える影響を詳細に分析する。
まず、サイバーセキュリティにおけるフロンティアAIの限界リスクを定義し、分類する。
そして、サイバーセキュリティにおけるフロンティアAIの現在と将来の影響を体系的に分析する。
論文 参考訳(メタデータ) (2025-04-07T18:25:18Z) - An Approach to Technical AGI Safety and Security [72.83728459135101]
我々は、人類を著しく傷つけるのに十分な害のリスクに対処するアプローチを開発する。
私たちは、誤用や悪用に対する技術的なアプローチに重点を置いています。
これらの成分を組み合わせてAGIシステムの安全性を実現する方法について概説する。
論文 参考訳(メタデータ) (2025-04-02T15:59:31Z) - Cybersecurity and Frequent Cyber Attacks on IoT Devices in Healthcare: Issues and Solutions [0.0]
医療におけるIoT(Internet of Things)デバイスは、患者のケアに革命をもたらし、監視、診断、治療の改善を提供する。
しかし、これらのデバイスの普及は、重大なサイバーセキュリティ上の課題ももたらした。
本稿では、医療におけるIoTデバイスをターゲットにしたサイバーセキュリティの脅威の現状を概観し、これらの脆弱性に影響を及ぼす根底にある問題について論じ、潜在的な解決策を探る。
論文 参考訳(メタデータ) (2025-01-20T03:29:07Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - SoK: Security and Privacy Risks of Healthcare AI [15.655956766190256]
人工知能(AI)と機械学習(ML)を医療システムに統合することは、患者のケアを強化する大きな約束である。
しかし、機密データやシステムの完全性も、サイバー攻撃の可能性を秘めている。
ヘルスケアAIに関する現在のセキュリティとプライバシ(S&P)の研究は、ヘルスケアの展開シナリオと脅威モデルに関して非常に不均衡である。
論文 参考訳(メタデータ) (2024-09-11T16:59:58Z) - Systematically Assessing the Security Risks of AI/ML-enabled Connected Healthcare Systems [4.508868068781058]
医療システムにおけるMLの使用は、対人的介入の際の患者の健康に致命的な被害をもたらす可能性のあるセキュリティリスクがあることが示される。
これらの新たなリスクは、周辺機器と通信チャネルのセキュリティ上の脆弱性によって生じる。
現状のリスク評価技術は、これらの新たなリスクを特定し評価するには不十分であることを示す。
論文 参考訳(メタデータ) (2024-01-30T16:15:55Z) - The Security and Privacy of Mobile Edge Computing: An Artificial Intelligence Perspective [64.36680481458868]
Mobile Edge Computing (MEC)は、クラウドコンピューティングと情報技術(IT)サービスをネットワークのエッジで配信できるようにする新しいコンピューティングパラダイムである。
本稿では,人工知能(AI)の観点からMECのセキュリティとプライバシに関する調査を行う。
新たなセキュリティとプライバシの問題に加えて、AIの観点からの潜在的なソリューションにも重点を置いています。
論文 参考訳(メタデータ) (2024-01-03T07:47:22Z) - Towards Evaluating the Security of Wearable Devices in the Internet of Medical Things [0.0]
インターネット・オブ・メディカル・モノ(IoMT)は、患者の健康を改善し、ヒューマンエラーを減らすための有望なソリューションを提供する。
医療を正確に管理し、電子健康記録と統合するウェアラブルスマート注入ポンプは、医療を改善する技術の一例である。
しかし、接続医療機器の数が増加するにつれて、サイバー脅威の危険性も高まる。
論文 参考訳(メタデータ) (2023-12-13T14:12:52Z) - A Framework for Evaluating the Cybersecurity Risk of Real World, Machine
Learning Production Systems [41.470634460215564]
我々はML生産システムにサイバー攻撃を組み込むMulVAL攻撃グラフ生成および分析フレームワークの拡張を開発する。
提案された拡張を使用することで、セキュリティ実践者はMLコンポーネントを含む環境にアタックグラフ分析手法を適用することができる。
論文 参考訳(メタデータ) (2021-07-05T05:58:11Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。