論文の概要: Adversarial Attack Vulnerability of Medical Image Analysis Systems:
Unexplored Factors
- arxiv url: http://arxiv.org/abs/2006.06356v3
- Date: Thu, 17 Jun 2021 12:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 14:44:04.949631
- Title: Adversarial Attack Vulnerability of Medical Image Analysis Systems:
Unexplored Factors
- Title(参考訳): 医療画像解析システムの敵対的攻撃脆弱性:未調査因子
- Authors: Gerda Bortsova, Cristina Gonz\'alez-Gonzalo, Suzanne C. Wetstein,
Florian Dubost, Ioannis Katramados, Laurens Hogeweg, Bart Liefers, Bram van
Ginneken, Josien P.W. Pluim, Mitko Veta, Clara I. S\'anchez, and Marleen de
Bruijne
- Abstract要約: 敵対的攻撃は、機械学習システムにとって深刻なセキュリティ脅威であると考えられている。
深層学習型MedIAシステムにおける敵攻撃の脆弱性に影響を及ぼす要因について検討した。
- 参考スコア(独自算出の注目度): 8.586747120576224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks are considered a potentially serious security threat for
machine learning systems. Medical image analysis (MedIA) systems have recently
been argued to be vulnerable to adversarial attacks due to strong financial
incentives and the associated technological infrastructure.
In this paper, we study previously unexplored factors affecting adversarial
attack vulnerability of deep learning MedIA systems in three medical domains:
ophthalmology, radiology, and pathology. We focus on adversarial black-box
settings, in which the attacker does not have full access to the target model
and usually uses another model, commonly referred to as surrogate model, to
craft adversarial examples. We consider this to be the most realistic scenario
for MedIA systems.
Firstly, we study the effect of weight initialization (ImageNet vs. random)
on the transferability of adversarial attacks from the surrogate model to the
target model. Secondly, we study the influence of differences in development
data between target and surrogate models. We further study the interaction of
weight initialization and data differences with differences in model
architecture. All experiments were done with a perturbation degree tuned to
ensure maximal transferability at minimal visual perceptibility of the attacks.
Our experiments show that pre-training may dramatically increase the
transferability of adversarial examples, even when the target and surrogate's
architectures are different: the larger the performance gain using
pre-training, the larger the transferability. Differences in the development
data between target and surrogate models considerably decrease the performance
of the attack; this decrease is further amplified by difference in the model
architecture. We believe these factors should be considered when developing
security-critical MedIA systems planned to be deployed in clinical practice.
- Abstract(参考訳): 敵対的攻撃は、機械学習システムにとって深刻なセキュリティ脅威であると考えられている。
医療画像分析(media)システムは最近、強力な金融インセンティブと関連する技術基盤により、敵対的な攻撃に弱いと論じられている。
本稿では,3つの医学領域(眼科,放射線学,病理学)における深層学習型MedIAシステムに対する敵対的攻撃脆弱性の要因について検討した。
私たちは、攻撃者がターゲットモデルに完全にアクセスできず、通常、サーロゲートモデルと呼ばれる別のモデルを使用して、敵の例を作成する、敵側のブラックボックス設定にフォーカスします。
我々はこれをMedIAシステムにとって最も現実的なシナリオと考えている。
まず,重み初期化(画像ネット対ランダム)がサロゲートモデルからターゲットモデルへの敵攻撃の伝達性に及ぼす影響について検討する。
次に,ターゲットモデルとサロゲートモデルにおける開発データの違いの影響について検討する。
さらに,重み初期化とモデルアーキテクチャの違いによるデータ差の相互作用について検討する。
全ての実験は、攻撃の最小視認性で最大転送可能性を確保するために調整された摂動度で行われた。
実験の結果, 事前学習による性能向上は, 対象と代理のアーキテクチャが異なっても, 対向的なサンプルの転送可能性を大幅に向上させる可能性が示唆された。
ターゲットモデルとサロゲートモデルの間の開発データの違いは攻撃性能を著しく低下させ、この低下はモデルアーキテクチャの違いによってさらに増幅される。
臨床に展開するセキュリティクリティカルなメディアシステムの開発においては,これらの要因を考慮する必要がある。
関連論文リスト
- Black-box Adversarial Transferability: An Empirical Study in Cybersecurity Perspective [0.0]
敵対的機械学習では、悪意のあるユーザは、トレーニングまたはテストフェーズ中に、相手の摂動入力をモデルに挿入することで、ディープラーニングモデルを騙そうとします。
サイバー攻撃検知システムにおけるブラックボックスの逆転現象を実証的に検証する。
その結果,攻撃者が対象モデルの内部情報にアクセスできなくても,どんなディープラーニングモデルでも敵攻撃に強い影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2024-04-15T06:56:28Z) - Adversarial-Robust Transfer Learning for Medical Imaging via Domain
Assimilation [17.46080957271494]
医用画像が公開されていないため、現代のアルゴリズムは、大量の自然画像に基づいて事前訓練されたモデルに依存するようになった。
自然画像と医療画像の間に重要なエムドメインの相違があり、AIモデルは敵の攻撃に対するエムの脆弱性を高める。
本稿では,テクスチャと色適応を伝達学習に導入する Em ドメイン同化手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:39:15Z) - Susceptibility of Adversarial Attack on Medical Image Segmentation
Models [0.0]
我々は,MRIデータセット上で訓練したセグメンテーションモデルに対する敵攻撃の効果について検討した。
医療画像のセグメンテーションモデルは、実際に敵の攻撃に対して脆弱であることがわかった。
トレーニングで使用するものと異なる損失関数を用いることで,高い敵攻撃効果が得られることを示す。
論文 参考訳(メタデータ) (2024-01-20T12:52:20Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Analyzing the Impact of Adversarial Examples on Explainable Machine
Learning [0.31498833540989407]
敵対的攻撃は機械学習モデルに対する攻撃の一種であり、攻撃者は入力を意図的に修正し、モデルに誤った予測をさせる。
ディープラーニングモデルと敵攻撃の脆弱性に取り組むことで、モデルに望まないことを予測させるサンプルを非常に簡単に作成できることが示されています。
本研究では,テキスト分類問題に対する逆攻撃によるモデル解釈可能性の影響を解析する。
論文 参考訳(メタデータ) (2023-07-17T08:50:36Z) - Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - Recent improvements of ASR models in the face of adversarial attacks [28.934863462633636]
音声認識モデルは敵攻撃に対して脆弱である。
異なる攻撃アルゴリズムの相対的強度は、モデルアーキテクチャを変更する際に大きく異なることを示す。
ソースコードをパッケージとしてリリースし、将来の攻撃と防御の評価に役立ちます。
論文 参考訳(メタデータ) (2022-03-29T22:40:37Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。