論文の概要: Adversarial Attacks to Machine Learning-Based Smart Healthcare Systems
- arxiv url: http://arxiv.org/abs/2010.03671v1
- Date: Wed, 7 Oct 2020 21:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 00:23:23.688564
- Title: Adversarial Attacks to Machine Learning-Based Smart Healthcare Systems
- Title(参考訳): 機械学習に基づくスマートヘルスケアシステムに対する敵対的攻撃
- Authors: AKM Iqtidar Newaz, Nur Imtiazul Haque, Amit Kumar Sikder, Mohammad
Ashiqur Rahman, A. Selcuk Uluagac
- Abstract要約: 最近の研究では、機械学習モデルは敵の攻撃に弱いことが示されている。
本稿では,SHSで使用されるML分類器を活用するために,新たなタイプの逆攻撃を提案する。
本研究は, ML ベースの SHS を用いて, 疾患や正常な動作を正しく検出する手法である。
- 参考スコア(独自算出の注目度): 8.005953525001475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing availability of healthcare data requires accurate analysis of
disease diagnosis, progression, and realtime monitoring to provide improved
treatments to the patients. In this context, Machine Learning (ML) models are
used to extract valuable features and insights from high-dimensional and
heterogeneous healthcare data to detect different diseases and patient
activities in a Smart Healthcare System (SHS). However, recent researches show
that ML models used in different application domains are vulnerable to
adversarial attacks. In this paper, we introduce a new type of adversarial
attacks to exploit the ML classifiers used in a SHS. We consider an adversary
who has partial knowledge of data distribution, SHS model, and ML algorithm to
perform both targeted and untargeted attacks. Employing these adversarial
capabilities, we manipulate medical device readings to alter patient status
(disease-affected, normal condition, activities, etc.) in the outcome of the
SHS. Our attack utilizes five different adversarial ML algorithms (HopSkipJump,
Fast Gradient Method, Crafting Decision Tree, Carlini & Wagner, Zeroth Order
Optimization) to perform different malicious activities (e.g., data poisoning,
misclassify outputs, etc.) on a SHS. Moreover, based on the training and
testing phase capabilities of an adversary, we perform white box and black box
attacks on a SHS. We evaluate the performance of our work in different SHS
settings and medical devices. Our extensive evaluation shows that our proposed
adversarial attack can significantly degrade the performance of a ML-based SHS
in detecting diseases and normal activities of the patients correctly, which
eventually leads to erroneous treatment.
- Abstract(参考訳): 医療データの可用性の向上は、患者の治療を改善するために、疾患の診断、進行、およびリアルタイムモニタリングの正確な分析を必要とする。
この文脈では、機械学習(ML)モデルを使用して、高次元および異質な医療データから貴重な特徴や洞察を抽出し、スマートヘルスケアシステム(SHS)のさまざまな疾患や患者の活動を検出する。
しかし、最近の研究では、異なるアプリケーションドメインで使用されるMLモデルは敵攻撃に弱いことが示されている。
本稿では,SHSで使用されるML分類器を活用するために,新たなタイプの逆攻撃を提案する。
我々は,データ配信,SHSモデル,MLアルゴリズムの知識を部分的に持っている敵が,標的攻撃と未目標攻撃の両方を実行することを考える。
本研究は, 医療機器の読解機能を利用して, SHSの結果, 患者状態(障害性, 正常状態, 活動など)を変化させる。
攻撃は,shs上で異なる悪意のある行動(データ中毒,出力の誤分類など)を行うために,5種類の逆mlアルゴリズム(hopskipjump,fast gradient method, crafting decision tree,carlini & wagner,zeroth order optimization)を使用する。
さらに,攻撃者の訓練およびテストフェーズ能力に基づいて,shsに対してホワイトボックスおよびブラックボックス攻撃を行う。
我々は,様々なshs設定と医療機器を用いて作業性能を評価する。
広範に評価した結果,本提案手法はmlベースsshsの性能を著しく低下させ,患者の正常な活動や異常な治療につながることが示唆された。
関連論文リスト
- Adversarial Attacks on Large Language Models in Medicine [34.17895005922139]
医療アプリケーションへの大型言語モデルの統合により、医療診断、治療勧告、患者医療の進歩が期待できる。
LLMの敵対的攻撃に対する感受性は重大な脅威となり、繊細な医学的文脈で有害な結果をもたらす可能性がある。
本研究では,3つの医療課題における2種類の敵攻撃に対するLDMの脆弱性について検討した。
論文 参考訳(メタデータ) (2024-06-18T04:24:30Z) - The Significance of Machine Learning in Clinical Disease Diagnosis: A
Review [0.0]
本研究では、時系列医療指標における心拍データの伝達を改善するための機械学習アルゴリズムの能力について検討する。
検討中の要因は、アルゴリズムの利用、対象とする疾患の種類、採用されるデータの種類、応用、評価指標などである。
論文 参考訳(メタデータ) (2023-10-25T20:28:22Z) - Towards Developing Safety Assurance Cases for Learning-Enabled Medical
Cyber-Physical Systems [3.098385261166847]
我々は、学習可能なMCPSにおける機械学習コントローラの安全性保証ケースを開発する。
我々は,人工膵システムにおける予測のためのディープニューラルネットワークを実装することで,詳細な解析を行う。
本稿では,MLデータの妥当性を確認し,形式的検証を用いてMLに基づく予測の正しさを解析する。
論文 参考訳(メタデータ) (2022-11-23T22:43:48Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Survival Prediction of Heart Failure Patients using Stacked Ensemble
Machine Learning Algorithm [0.0]
心不全は、我々の時代における主要な健康上の危険問題の1つであり、世界中の死因の1つです。
データマイニングは、医療機関が生成した大量の生データを意味のある情報に変換するプロセスである。
本研究は, 心不全後の生存可能性を予測するためには, 患者から採取した特定の属性のみが必須であることが示唆された。
論文 参考訳(メタデータ) (2021-08-30T16:42:27Z) - A Novel Framework for Threat Analysis of Machine Learning-based Smart
Healthcare Systems [2.519906683279153]
機械学習と形式解析機能を統合した新たな脅威分析フレームワークであるSHCheckerを提案します。
私たちは合成データセットと実データセットにSHCheckerを実装し、フレームワークがIoMTシステムにおける潜在的な攻撃ベクトルを明らかにすることができることを確認します。
論文 参考訳(メタデータ) (2021-03-05T04:51:02Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - Predictive Modeling of ICU Healthcare-Associated Infections from
Imbalanced Data. Using Ensembles and a Clustering-Based Undersampling
Approach [55.41644538483948]
本研究は,集中治療室における危険因子の同定と医療関連感染症の予測に焦点をあてる。
感染発生率の低減に向けた意思決定を支援することを目的とする。
論文 参考訳(メタデータ) (2020-05-07T16:13:12Z) - Detecting Parkinsonian Tremor from IMU Data Collected In-The-Wild using
Deep Multiple-Instance Learning [59.74684475991192]
パーキンソン病(英: Parkinson's Disease、PD)は、60歳以上の人口の約1%に影響を与える徐々に進化する神経学的疾患である。
PD症状には、震動、剛性、ブレイキネジアがある。
本稿では,スマートフォン端末から受信したIMU信号に基づいて,PDに関連するトレモラスなエピソードを自動的に識別する手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T09:02:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。