論文の概要: MedAttacker: Exploring Black-Box Adversarial Attacks on Risk Prediction
Models in Healthcare
- arxiv url: http://arxiv.org/abs/2112.06063v1
- Date: Sat, 11 Dec 2021 20:01:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 11:26:48.799040
- Title: MedAttacker: Exploring Black-Box Adversarial Attacks on Risk Prediction
Models in Healthcare
- Title(参考訳): MedAttacker: 医療におけるリスク予測モデルに対するブラックボックス攻撃の探索
- Authors: Muchao Ye and Junyu Luo and Guanjie Zheng and Cao Xiao and Ting Wang
and Fenglong Ma
- Abstract要約: 我々は,MedAttacker という健康リスク予測モデルに対する最初のブラックボックス攻撃手法を提案する。
MedAttackerは、階層的な位置選択と置換的な選択という2つのステップを通じて、EHRデータによってもたらされる課題に対処する。
実験では、MedAttackerは一貫して平均的な成功率を達成し、最近のホワイトボックス EHR 攻撃技術よりも優れています。
- 参考スコア(独自算出の注目度): 45.22786917324134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have been broadly adopted in health risk
prediction to provide healthcare diagnoses and treatments. To evaluate their
robustness, existing research conducts adversarial attacks in the
white/gray-box setting where model parameters are accessible. However, a more
realistic black-box adversarial attack is ignored even though most real-world
models are trained with private data and released as black-box services on the
cloud. To fill this gap, we propose the first black-box adversarial attack
method against health risk prediction models named MedAttacker to investigate
their vulnerability. MedAttacker addresses the challenges brought by EHR data
via two steps: hierarchical position selection which selects the attacked
positions in a reinforcement learning (RL) framework and substitute selection
which identifies substitute with a score-based principle. Particularly, by
considering the temporal context inside EHRs, it initializes its RL position
selection policy by using the contribution score of each visit and the saliency
score of each code, which can be well integrated with the deterministic
substitute selection process decided by the score changes. In experiments,
MedAttacker consistently achieves the highest average success rate and even
outperforms a recent white-box EHR adversarial attack technique in certain
cases when attacking three advanced health risk prediction models in the
black-box setting across multiple real-world datasets. In addition, based on
the experiment results we include a discussion on defending EHR adversarial
attacks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、医療診断と治療を提供する健康リスク予測に広く採用されている。
その堅牢性を評価するため、既存の研究では、モデルパラメータがアクセス可能なホワイト/グレイボックス設定で敵攻撃を行う。
しかし、現実のほとんどのモデルはプライベートデータでトレーニングされ、クラウド上のブラックボックスサービスとしてリリースされているにもかかわらず、より現実的なブラックボックス敵攻撃は無視される。
このギャップを埋めるために,MedAttacker という健康リスク予測モデルに対する最初のブラックボックス攻撃手法を提案する。
MedAttacker氏は、強化学習(RL)フレームワークで攻撃された位置を選択する階層的位置選択と、スコアベースの原則で置換を識別する代替選択の2つのステップを通じて、EHRデータによってもたらされる課題に対処する。
特に、EHRの内部の時間的文脈を考慮して、各訪問の貢献スコアと各コードのサリエンシスコアを用いてRL位置選択ポリシーを初期化し、スコア変更によって決定される決定論的代替選択プロセスとうまく統合することができる。
実験では、MedAttackerは一貫して平均的な成功率を達成し、複数の実世界のデータセットにまたがるブラックボックス設定における3つの高度な健康リスク予測モデルを攻撃する場合、最近のホワイトボックス EHR 攻撃テクニックよりも優れています。
また,実験結果に基づき,EHR敵攻撃の防御に関する議論を含む。
関連論文リスト
- Game-Theoretic Defenses for Robust Conformal Prediction Against Adversarial Attacks in Medical Imaging [12.644923600594176]
敵対的攻撃は、ディープラーニングモデルの信頼性と安全性に重大な脅威をもたらす。
本稿では,共形予測とゲーム理論の防衛戦略を統合する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-07T02:20:04Z) - A Game-Theoretic Approach to Privacy-Utility Tradeoff in Sharing Genomic Summary Statistics [24.330984323956173]
本稿では,ゲノムサマリー統計の共有において,最適なプライバシ・ユーティリティ・トレードオフのためのゲーム理論フレームワークを提案する。
実験により,提案手法は,技術状況よりも強力な攻撃と強力な防衛戦略をもたらすことが示された。
論文 参考訳(メタデータ) (2024-06-03T22:09:47Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Microbial Genetic Algorithm-based Black-box Attack against Interpretable
Deep Learning Systems [16.13790238416691]
ホワイトボックス環境では、解釈可能なディープラーニングシステム(IDLS)が悪意のある操作に対して脆弱であることが示されている。
本稿では,IDLSに対するクエリ効率の高いScoreベースのブラックボックス攻撃QuScoreを提案する。
論文 参考訳(メタデータ) (2023-07-13T00:08:52Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。