論文の概要: Systematically Assessing the Security Risks of AI/ML-enabled Connected
Healthcare Systems
- arxiv url: http://arxiv.org/abs/2401.17136v1
- Date: Tue, 30 Jan 2024 16:15:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 14:19:46.652627
- Title: Systematically Assessing the Security Risks of AI/ML-enabled Connected
Healthcare Systems
- Title(参考訳): ai/ml対応コネクテッド医療システムのセキュリティリスクの体系的評価
- Authors: Mohammed Elnawawy, Mohammadreza Hallajiyan, Gargi Mitra, Shahrear
Iqbal and Karthik Pattabiraman
- Abstract要約: 医療システムにおけるMLの使用は、対人的介入の際の患者の健康に致命的な被害をもたらす可能性のあるセキュリティリスクがあることが示される。
これらの新たなリスクは、周辺機器と通信チャネルのセキュリティ上の脆弱性によって生じる。
現状のリスク評価技術は、これらの新たなリスクを特定し評価するには不十分であることを示す。
- 参考スコア(独自算出の注目度): 4.837320865223376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The adoption of machine-learning-enabled systems in the healthcare domain is
on the rise. While the use of ML in healthcare has several benefits, it also
expands the threat surface of medical systems. We show that the use of ML in
medical systems, particularly connected systems that involve interfacing the ML
engine with multiple peripheral devices, has security risks that might cause
life-threatening damage to a patient's health in case of adversarial
interventions. These new risks arise due to security vulnerabilities in the
peripheral devices and communication channels. We present a case study where we
demonstrate an attack on an ML-enabled blood glucose monitoring system by
introducing adversarial data points during inference. We show that an adversary
can achieve this by exploiting a known vulnerability in the Bluetooth
communication channel connecting the glucose meter with the ML-enabled app. We
further show that state-of-the-art risk assessment techniques are not adequate
for identifying and assessing these new risks. Our study highlights the need
for novel risk analysis methods for analyzing the security of AI-enabled
connected health devices.
- Abstract(参考訳): 医療分野における機械学習対応システムの採用が増加している。
医療におけるMLの利用にはいくつかの利点があるが、医療システムの脅威面も拡大している。
医療システムにおけるMLの使用,特にMLエンジンと複数の周辺機器を介する接続システムでは,対向的介入の際の患者の健康に致命的な被害をもたらす可能性のあるセキュリティリスクが指摘される。
これらの新たなリスクは、周辺機器と通信チャネルのセキュリティ上の脆弱性に起因する。
本稿では,ML対応血糖モニタリングシステムに対して,推論中に逆方向のデータポイントを導入して攻撃を行った事例を紹介する。
本稿では,グルコースメータとML対応アプリとを接続するBluetooth通信路の既知の脆弱性を利用して,敵がこれを実現できることを示す。
さらに,最先端のリスクアセスメント技術は,これらの新たなリスクを識別・評価するには不十分であることを示す。
本研究は,AI接続型医療機器のセキュリティを解析するためのリスク分析手法の必要性を強調した。
関連論文リスト
- On the Safety Concerns of Deploying LLMs/VLMs in Robotics: Highlighting
the Risks and Vulnerabilities [50.31806287390321]
ロボットの動作を操作または誤操作することは容易であり、安全上の危険をもたらす。
我々のデータは、即時攻撃で21.2%、知覚攻撃で30.2%の平均的なパフォーマンス劣化を示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Concrete Safety for ML Problems: System Safety for ML Development and
Assessment [0.758305251912708]
信頼感、意図しない社会的危害、容認できない社会的および倫理的違反に対する懸念は、MLの進歩の約束を損なう。
システム安全工学は、複雑度の高い社会技術システムにおいても、リスクを特定し管理する実績のある、確立された分野である。
論文 参考訳(メタデータ) (2023-02-06T18:02:07Z) - Foveate, Attribute, and Rationalize: Towards Physically Safe and
Trustworthy AI [76.28956947107372]
包括的不安全テキストは、日常的なシナリオから生じる可能性のある特定の関心領域であり、有害なテキストを検出するのが困難である。
安全の文脈において、信頼に値する合理的な生成のために外部知識を活用する新しいフレームワークであるFARMを提案する。
実験の結果,FARMはSafeTextデータセットの最先端結果を得ることができ,安全性の分類精度が5.9%向上したことがわかった。
論文 参考訳(メタデータ) (2022-12-19T17:51:47Z) - Towards Developing Safety Assurance Cases for Learning-Enabled Medical
Cyber-Physical Systems [3.098385261166847]
我々は、学習可能なMCPSにおける機械学習コントローラの安全性保証ケースを開発する。
我々は,人工膵システムにおける予測のためのディープニューラルネットワークを実装することで,詳細な解析を行う。
本稿では,MLデータの妥当性を確認し,形式的検証を用いてMLに基づく予測の正しさを解析する。
論文 参考訳(メタデータ) (2022-11-23T22:43:48Z) - System Safety Engineering for Social and Ethical ML Risks: A Case Study [0.5249805590164902]
政府、産業、アカデミックはML駆動システムにおける害を特定し緩和する努力をしてきた。
既存のアプローチは概ね不整合であり、アドホックであり、有効性は不明である。
特に、この分析が社会的および倫理的リスクを識別し、それらを緩和するための具体的な設計レベルの制御を開発するためにどのように拡張できるかに焦点を当てる。
論文 参考訳(メタデータ) (2022-11-08T22:58:58Z) - Survey of Machine Learning Based Intrusion Detection Methods for
Internet of Medical Things [2.223733768286313]
Internet of Medical Things (IoMT) は、モノのインターネット(Internet of Things)の応用である。
このデータのセンシティブでプライベートな性質は、攻撃者にとって重要な関心事であるかもしれない。
ストレージや計算能力に制限のある機器に対する従来のセキュリティ手法の使用は効果がない。
論文 参考訳(メタデータ) (2022-02-19T18:40:55Z) - A Framework for Evaluating the Cybersecurity Risk of Real World, Machine
Learning Production Systems [41.470634460215564]
我々はML生産システムにサイバー攻撃を組み込むMulVAL攻撃グラフ生成および分析フレームワークの拡張を開発する。
提案された拡張を使用することで、セキュリティ実践者はMLコンポーネントを含む環境にアタックグラフ分析手法を適用することができる。
論文 参考訳(メタデータ) (2021-07-05T05:58:11Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。