論文の概要: Susceptibility of Adversarial Attack on Medical Image Segmentation
Models
- arxiv url: http://arxiv.org/abs/2401.11224v1
- Date: Sat, 20 Jan 2024 12:52:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 17:33:37.424499
- Title: Susceptibility of Adversarial Attack on Medical Image Segmentation
Models
- Title(参考訳): 医用画像セグメンテーションモデルにおける敵攻撃の感受性
- Authors: Zhongxuan Wang and Leo Xu
- Abstract要約: 我々は,MRIデータセット上で訓練したセグメンテーションモデルに対する敵攻撃の効果について検討した。
医療画像のセグメンテーションモデルは、実際に敵の攻撃に対して脆弱であることがわかった。
トレーニングで使用するものと異なる損失関数を用いることで,高い敵攻撃効果が得られることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The nature of deep neural networks has given rise to a variety of attacks,
but little work has been done to address the effect of adversarial attacks on
segmentation models trained on MRI datasets. In light of the grave consequences
that such attacks could cause, we explore four models from the U-Net family and
examine their responses to the Fast Gradient Sign Method (FGSM) attack. We
conduct FGSM attacks on each of them and experiment with various schemes to
conduct the attacks. In this paper, we find that medical imaging segmentation
models are indeed vulnerable to adversarial attacks and that there is a
negligible correlation between parameter size and adversarial attack success.
Furthermore, we show that using a different loss function than the one used for
training yields higher adversarial attack success, contrary to what the FGSM
authors suggested. In future efforts, we will conduct the experiments detailed
in this paper with more segmentation models and different attacks. We will also
attempt to find ways to counteract the attacks by using model ensembles or
special data augmentations. Our code is available at
https://github.com/ZhongxuanWang/adv_attk
- Abstract(参考訳): ディープニューラルネットワークの性質は様々な攻撃を引き起こしているが、MRIデータセットでトレーニングされたセグメンテーションモデルに対する敵攻撃の影響に対処する作業はほとんど行われていない。
このような攻撃が引き起こす重大な結果を踏まえ、u-netファミリーの4つのモデルを調査し、fast gradient sign method (fgsm)攻撃に対する反応を調べる。
それぞれの攻撃に対してFGSM攻撃を行い、攻撃を行うための様々なスキームを実験する。
本稿では,医療画像分割モデルが実際に敵攻撃に対して脆弱であり,パラメータサイズと敵攻撃の成功との間には無視できる相関関係があることを見出した。
さらに,FGSMの著者らが示唆したように,トレーニングで使用するものと異なる損失関数を用いることで,対人攻撃の成功率が向上することを示した。
今後の取り組みとして,より多くのセグメンテーションモデルと異なる攻撃を用いて,本論文で詳述した実験を行う。
また、モデルアンサンブルや特別なデータ拡張を使用することで、攻撃に対抗する方法を模索します。
私たちのコードはhttps://github.com/ZhongxuanWang/adv_attkで利用可能です。
関連論文リスト
- From Attack to Defense: Insights into Deep Learning Security Measures in Black-Box Settings [1.8006345220416338]
敵のサンプルは深刻な脅威となり、モデルがそのようなアプリケーションの性能を誤解し、損なう可能性がある。
ディープラーニングモデルの堅牢性に対処することは、敵の攻撃を理解し防御するために重要になっている。
我々の研究は、SimBA、HopSkipJump、MGAAttack、境界攻撃などのブラックボックス攻撃、およびプリプロセッサベースの防御機構に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-03T09:40:47Z) - Adversarial Attacks and Dimensionality in Text Classifiers [3.4179091429029382]
機械学習アルゴリズムに対する敵対的な攻撃は、多くの現実世界のユースケースにおいて、AIの採用を妨げている。
本研究では,自然言語処理分野,特にテキスト分類タスクにおける逆例について検討する。
論文 参考訳(メタデータ) (2024-04-03T11:49:43Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Pseudo Label-Guided Model Inversion Attack via Conditional Generative
Adversarial Network [102.21368201494909]
モデル反転(MI)攻撃はプライバシーに対する懸念を高めている。
近年のMI攻撃では,探索空間を狭める前にGAN(Generative Adversarial Network)を画像として活用している。
我々は条件付きGAN(cGAN)による擬似ラベル誘導MI(PLG-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-20T07:29:34Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Adversarial Transfer Attacks With Unknown Data and Class Overlap [19.901933940805684]
現在の移動攻撃の研究は、攻撃者にとって非現実的な優位性を持っている。
攻撃者および被害者が不完全な設定で利用可能なデータに着目した敵攻撃の転送に関する最初の研究について述べる。
この脅威モデルは、医学、マルウェアなどの応用に関係している。
論文 参考訳(メタデータ) (2021-09-23T03:41:34Z) - Untargeted, Targeted and Universal Adversarial Attacks and Defenses on
Time Series [0.0]
我々は,UCR時系列データセットに対して,対象外,対象外,普遍的敵攻撃を行った。
これらの攻撃に対して,ディープラーニングに基づく時系列分類モデルが脆弱であることを示す。
また、トレーニングデータのごく一部しか必要としないため、普遍的敵攻撃は優れた一般化特性を有することを示す。
論文 参考訳(メタデータ) (2021-01-13T13:00:51Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Adversarial examples are useful too! [47.64219291655723]
モデルがバックドア攻撃を受けたかどうかを判断する新しい手法を提案する。
その考え方は、FGSMのような従来の攻撃を用いて、標的または未標的の敵の例を生成することである。
障害のある地域を視覚的に見つけて、攻撃を露呈することができる。
論文 参考訳(メタデータ) (2020-05-13T01:38:56Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。