論文の概要: Attack-agnostic Adversarial Detection on Medical Data Using Explainable
Machine Learning
- arxiv url: http://arxiv.org/abs/2105.01959v1
- Date: Wed, 5 May 2021 10:01:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:37:10.014978
- Title: Attack-agnostic Adversarial Detection on Medical Data Using Explainable
Machine Learning
- Title(参考訳): 説明可能な機械学習を用いた医療データに対する攻撃非依存の逆検出
- Authors: Matthew Watson (1) and Noura Al Moubayed (1) ((1) Durham University,
Durham, UK)
- Abstract要約: 本論文では,2つのデータセット上での対比サンプルの正確な検出のためのモデル非依存説明性に基づく手法を提案する。
MIMIC-IIIとHenan-Renmin EHRのデータセットでは,縦軸攻撃に対する検出精度は77%であった。
MIMIC-CXRデータセットでは88%の精度を実現し、すべての設定において、両方のデータセットにおける敵検出技術の現状を10%以上改善した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainable machine learning has become increasingly prevalent, especially in
healthcare where explainable models are vital for ethical and trusted automated
decision making. Work on the susceptibility of deep learning models to
adversarial attacks has shown the ease of designing samples to mislead a model
into making incorrect predictions. In this work, we propose a model agnostic
explainability-based method for the accurate detection of adversarial samples
on two datasets with different complexity and properties: Electronic Health
Record (EHR) and chest X-ray (CXR) data. On the MIMIC-III and Henan-Renmin EHR
datasets, we report a detection accuracy of 77% against the Longitudinal
Adversarial Attack. On the MIMIC-CXR dataset, we achieve an accuracy of 88%;
significantly improving on the state of the art of adversarial detection in
both datasets by over 10% in all settings. We propose an anomaly detection
based method using explainability techniques to detect adversarial samples
which is able to generalise to different attack methods without a need for
retraining.
- Abstract(参考訳): 特に、倫理的かつ信頼できる自動意思決定に説明可能なモデルが不可欠である医療において、説明可能な機械学習が普及している。
敵の攻撃に対するディープラーニングモデルの感受性に関する研究は、モデルを見誤って誤った予測を行うためのサンプル設計の容易さを示している。
本研究では,電子健康記録 (EHR) と胸部X線データ (CXR) の2つのデータから, 敵検体を正確に検出するためのモデル非依存的説明可能性に基づく手法を提案する。
MIMIC-IIIとHenan-Renmin EHRデータセットでは,縦方向逆襲に対する検出精度が77%であった。
MIMIC-CXRデータセットでは88%の精度を実現し、すべての設定において、両方のデータセットにおける敵検出技術の現状を10%以上改善した。
そこで本研究では,異なる攻撃手法に一般化可能な逆検体を,再訓練を必要とせずに検出する手法を提案する。
関連論文リスト
- Diagnosing Human-object Interaction Detectors [42.283857276076596]
本稿では,HOI検出モデルの定量的なブレークダウン解析を行うための診断ツールボックスを提案する。
我々は8つの最先端HOI検出モデルを分析し、今後の研究を促進する貴重な診断洞察を提供する。
論文 参考訳(メタデータ) (2023-08-16T17:39:15Z) - Automatic diagnosis of knee osteoarthritis severity using Swin
transformer [55.01037422579516]
変形性膝関節症 (KOA) は膝関節の慢性的な痛みと硬直を引き起こす疾患である。
我々は,Swin Transformer を用いて KOA の重大度を予測する自動手法を提案する。
論文 参考訳(メタデータ) (2023-07-10T09:49:30Z) - Exploring the Limits of Model-Targeted Indiscriminate Data Poisoning
Attacks [31.339252233416477]
対象パラメータに対するデータ中毒攻撃の本質的な限界を探索するための技術ツールとして,モデル中毒の到達可能性の概念を紹介した。
我々は、一般的なMLモデルの中で驚くべき位相遷移現象を確立し、定量化するために、容易に計算可能なしきい値を得る。
我々の研究は, 有毒比がもたらす重要な役割を強調し, データ中毒における既存の経験的結果, 攻撃, 緩和戦略に関する新たな知見を隠蔽する。
論文 参考訳(メタデータ) (2023-03-07T01:55:26Z) - DAD: Data-free Adversarial Defense at Test Time [21.741026088202126]
ディープモデルは敵の攻撃に非常に敏感である。
プライバシは、トレーニングデータではなく、トレーニングされたモデルのみへのアクセスを制限する、重要な関心事になっている。
我々は,「訓練データと統計値の欠如によるテスト時敵防衛」という全く新しい問題を提案する。
論文 参考訳(メタデータ) (2022-04-04T15:16:13Z) - Reliable and Trustworthy Machine Learning for Health Using Dataset Shift
Detection [7.263558963357268]
予測不能なMLモデルの振る舞いは、特に健康領域において、その安全性に対する深刻な懸念を引き起こす。
マハラノビス距離およびグラム行列に基づく分布外検出法は,分布外データを高精度に検出できることを示す。
次に、アウト・オブ・ディストリビューションスコアを人間の解釈可能なConFIDENCE SCOREに変換し、ユーザーの健康MLアプリケーションとのインタラクションに与える影響を調査する。
論文 参考訳(メタデータ) (2021-10-26T20:49:01Z) - Machine Learning with Electronic Health Records is vulnerable to
Backdoor Trigger Attacks [11.729565632882721]
本研究では,攻撃者がEHRを用いて機械学習予測を容易かつ選択的に操作できることを実証する。
我々は,MIMIC-IIIデータベースによるロジスティック回帰,多層パーセプトロン,長期記憶モデルに対する死亡予測タスクの平均攻撃成功率を97%とする。
論文 参考訳(メタデータ) (2021-06-15T07:27:39Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z) - Hemogram Data as a Tool for Decision-making in COVID-19 Management:
Applications to Resource Scarcity Scenarios [62.997667081978825]
新型コロナウイルス(COVID-19)のパンデミックは世界中の緊急対応システムに挑戦している。
本研究は, 症状患者の血液検査データから得られた機械学習モデルについて述べる。
提案されたモデルでは、新型コロナウイルスqRT-PCRの結果を、高い精度、感度、特異性で症状のある個人に予測することができる。
論文 参考訳(メタデータ) (2020-05-10T01:45:03Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。