論文の概要: MedAttacker: Exploring Black-Box Adversarial Attacks on Risk Prediction
Models in Healthcare
- arxiv url: http://arxiv.org/abs/2112.06063v1
- Date: Sat, 11 Dec 2021 20:01:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 11:26:48.799040
- Title: MedAttacker: Exploring Black-Box Adversarial Attacks on Risk Prediction
Models in Healthcare
- Title(参考訳): MedAttacker: 医療におけるリスク予測モデルに対するブラックボックス攻撃の探索
- Authors: Muchao Ye and Junyu Luo and Guanjie Zheng and Cao Xiao and Ting Wang
and Fenglong Ma
- Abstract要約: 我々は,MedAttacker という健康リスク予測モデルに対する最初のブラックボックス攻撃手法を提案する。
MedAttackerは、階層的な位置選択と置換的な選択という2つのステップを通じて、EHRデータによってもたらされる課題に対処する。
実験では、MedAttackerは一貫して平均的な成功率を達成し、最近のホワイトボックス EHR 攻撃技術よりも優れています。
- 参考スコア(独自算出の注目度): 45.22786917324134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have been broadly adopted in health risk
prediction to provide healthcare diagnoses and treatments. To evaluate their
robustness, existing research conducts adversarial attacks in the
white/gray-box setting where model parameters are accessible. However, a more
realistic black-box adversarial attack is ignored even though most real-world
models are trained with private data and released as black-box services on the
cloud. To fill this gap, we propose the first black-box adversarial attack
method against health risk prediction models named MedAttacker to investigate
their vulnerability. MedAttacker addresses the challenges brought by EHR data
via two steps: hierarchical position selection which selects the attacked
positions in a reinforcement learning (RL) framework and substitute selection
which identifies substitute with a score-based principle. Particularly, by
considering the temporal context inside EHRs, it initializes its RL position
selection policy by using the contribution score of each visit and the saliency
score of each code, which can be well integrated with the deterministic
substitute selection process decided by the score changes. In experiments,
MedAttacker consistently achieves the highest average success rate and even
outperforms a recent white-box EHR adversarial attack technique in certain
cases when attacking three advanced health risk prediction models in the
black-box setting across multiple real-world datasets. In addition, based on
the experiment results we include a discussion on defending EHR adversarial
attacks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、医療診断と治療を提供する健康リスク予測に広く採用されている。
その堅牢性を評価するため、既存の研究では、モデルパラメータがアクセス可能なホワイト/グレイボックス設定で敵攻撃を行う。
しかし、現実のほとんどのモデルはプライベートデータでトレーニングされ、クラウド上のブラックボックスサービスとしてリリースされているにもかかわらず、より現実的なブラックボックス敵攻撃は無視される。
このギャップを埋めるために,MedAttacker という健康リスク予測モデルに対する最初のブラックボックス攻撃手法を提案する。
MedAttacker氏は、強化学習(RL)フレームワークで攻撃された位置を選択する階層的位置選択と、スコアベースの原則で置換を識別する代替選択の2つのステップを通じて、EHRデータによってもたらされる課題に対処する。
特に、EHRの内部の時間的文脈を考慮して、各訪問の貢献スコアと各コードのサリエンシスコアを用いてRL位置選択ポリシーを初期化し、スコア変更によって決定される決定論的代替選択プロセスとうまく統合することができる。
実験では、MedAttackerは一貫して平均的な成功率を達成し、複数の実世界のデータセットにまたがるブラックボックス設定における3つの高度な健康リスク予測モデルを攻撃する場合、最近のホワイトボックス EHR 攻撃テクニックよりも優れています。
また,実験結果に基づき,EHR敵攻撃の防御に関する議論を含む。
関連論文リスト
- Understanding the Robustness of Randomized Feature Defense Against
Query-Based Adversarial Attacks [23.010308600769545]
ディープニューラルネットワークは、元の画像に近いサンプルを見つける敵の例に弱いが、モデルを誤分類させる可能性がある。
モデル中間層における隠れた特徴にランダムノイズを付加することにより,ブラックボックス攻撃に対する簡易かつ軽量な防御法を提案する。
本手法は,スコアベースと決定ベースの両方のブラックボックス攻撃に対するモデルのレジリエンスを効果的に向上させる。
論文 参考訳(メタデータ) (2023-10-01T03:53:23Z) - Microbial Genetic Algorithm-based Black-box Attack against Interpretable
Deep Learning Systems [16.13790238416691]
ホワイトボックス環境では、解釈可能なディープラーニングシステム(IDLS)が悪意のある操作に対して脆弱であることが示されている。
本稿では,IDLSに対するクエリ効率の高いScoreベースのブラックボックス攻撃QuScoreを提案する。
論文 参考訳(メタデータ) (2023-07-13T00:08:52Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシー侵害に対する懸念の高まりに対処している。
ローカルデータセットに対するサーバーの盲目は、毒殺攻撃をモデル化する脆弱性を導入している。
FedCCは、Centered Kernel Alignment of Penultimate Layers Representationsを比較することで、堅牢なアグリゲーションを提供する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Practical Relative Order Attack in Deep Ranking [99.332629807873]
ディープランキングシステム、すなわちオーダーアタックに対する新しい敵の攻撃を定式化します。
順序攻撃は、攻撃者が特定した順列に応じて、選択された候補群間の相対順序を暗黙的に変更する。
主要なeコマースプラットフォームでうまく実装されている。
論文 参考訳(メタデータ) (2021-03-09T06:41:18Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。