論文の概要: Systematically Assessing the Security Risks of AI/ML-enabled Connected
Healthcare Systems
- arxiv url: http://arxiv.org/abs/2401.17136v1
- Date: Tue, 30 Jan 2024 16:15:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 14:19:46.652627
- Title: Systematically Assessing the Security Risks of AI/ML-enabled Connected
Healthcare Systems
- Title(参考訳): ai/ml対応コネクテッド医療システムのセキュリティリスクの体系的評価
- Authors: Mohammed Elnawawy, Mohammadreza Hallajiyan, Gargi Mitra, Shahrear
Iqbal and Karthik Pattabiraman
- Abstract要約: 医療システムにおけるMLの使用は、対人的介入の際の患者の健康に致命的な被害をもたらす可能性のあるセキュリティリスクがあることが示される。
これらの新たなリスクは、周辺機器と通信チャネルのセキュリティ上の脆弱性によって生じる。
現状のリスク評価技術は、これらの新たなリスクを特定し評価するには不十分であることを示す。
- 参考スコア(独自算出の注目度): 4.837320865223376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The adoption of machine-learning-enabled systems in the healthcare domain is
on the rise. While the use of ML in healthcare has several benefits, it also
expands the threat surface of medical systems. We show that the use of ML in
medical systems, particularly connected systems that involve interfacing the ML
engine with multiple peripheral devices, has security risks that might cause
life-threatening damage to a patient's health in case of adversarial
interventions. These new risks arise due to security vulnerabilities in the
peripheral devices and communication channels. We present a case study where we
demonstrate an attack on an ML-enabled blood glucose monitoring system by
introducing adversarial data points during inference. We show that an adversary
can achieve this by exploiting a known vulnerability in the Bluetooth
communication channel connecting the glucose meter with the ML-enabled app. We
further show that state-of-the-art risk assessment techniques are not adequate
for identifying and assessing these new risks. Our study highlights the need
for novel risk analysis methods for analyzing the security of AI-enabled
connected health devices.
- Abstract(参考訳): 医療分野における機械学習対応システムの採用が増加している。
医療におけるMLの利用にはいくつかの利点があるが、医療システムの脅威面も拡大している。
医療システムにおけるMLの使用,特にMLエンジンと複数の周辺機器を介する接続システムでは,対向的介入の際の患者の健康に致命的な被害をもたらす可能性のあるセキュリティリスクが指摘される。
これらの新たなリスクは、周辺機器と通信チャネルのセキュリティ上の脆弱性に起因する。
本稿では,ML対応血糖モニタリングシステムに対して,推論中に逆方向のデータポイントを導入して攻撃を行った事例を紹介する。
本稿では,グルコースメータとML対応アプリとを接続するBluetooth通信路の既知の脆弱性を利用して,敵がこれを実現できることを示す。
さらに,最先端のリスクアセスメント技術は,これらの新たなリスクを識別・評価するには不十分であることを示す。
本研究は,AI接続型医療機器のセキュリティを解析するためのリスク分析手法の必要性を強調した。
関連論文リスト
- Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - HAICOSYSTEM: An Ecosystem for Sandboxing Safety Risks in Human-AI Interactions [76.42274173122328]
本稿では,多様な複雑な社会的相互作用におけるAIエージェントの安全性を調べるフレームワークであるHAICOSYSTEMを提案する。
私たちは7つの領域(医療、金融、教育など)にわたる92のシナリオに基づいて1840のシミュレーションを実行します。
我々の実験は、最先端のLSMは、プロプライエタリかつオープンソースの両方で、50%以上のケースで安全リスクを示すことを示した。
論文 参考訳(メタデータ) (2024-09-24T19:47:21Z) - SoK: Security and Privacy Risks of Medical AI [14.592921477833848]
テクノロジーと医療の統合は、人工知能と機械学習を利用したソフトウェアシステムが、医療製品やサービスの不可欠なコンポーネントとなった新しい時代に幕を閉じた。
本稿では、医療におけるAI/MLアプリケーションによるセキュリティとプライバシの脅威について検討する。
論文 参考訳(メタデータ) (2024-09-11T16:59:58Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Harnessing the Speed and Accuracy of Machine Learning to Advance Cybersecurity [0.0]
従来のシグネチャベースのマルウェア検出方法は、複雑な脅威を検出するのに制限がある。
近年、機械学習はマルウェアを効果的に検出する有望なソリューションとして出現している。
MLアルゴリズムは、大規模なデータセットを分析し、人間が識別するのが困難なパターンを特定することができる。
論文 参考訳(メタデータ) (2023-02-24T02:42:38Z) - Towards Developing Safety Assurance Cases for Learning-Enabled Medical
Cyber-Physical Systems [3.098385261166847]
我々は、学習可能なMCPSにおける機械学習コントローラの安全性保証ケースを開発する。
我々は,人工膵システムにおける予測のためのディープニューラルネットワークを実装することで,詳細な解析を行う。
本稿では,MLデータの妥当性を確認し,形式的検証を用いてMLに基づく予測の正しさを解析する。
論文 参考訳(メタデータ) (2022-11-23T22:43:48Z) - System Safety Engineering for Social and Ethical ML Risks: A Case Study [0.5249805590164902]
政府、産業、アカデミックはML駆動システムにおける害を特定し緩和する努力をしてきた。
既存のアプローチは概ね不整合であり、アドホックであり、有効性は不明である。
特に、この分析が社会的および倫理的リスクを識別し、それらを緩和するための具体的な設計レベルの制御を開発するためにどのように拡張できるかに焦点を当てる。
論文 参考訳(メタデータ) (2022-11-08T22:58:58Z) - Survey of Machine Learning Based Intrusion Detection Methods for
Internet of Medical Things [2.223733768286313]
Internet of Medical Things (IoMT) は、モノのインターネット(Internet of Things)の応用である。
このデータのセンシティブでプライベートな性質は、攻撃者にとって重要な関心事であるかもしれない。
ストレージや計算能力に制限のある機器に対する従来のセキュリティ手法の使用は効果がない。
論文 参考訳(メタデータ) (2022-02-19T18:40:55Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。