論文の概要: FIBA: Frequency-Injection based Backdoor Attack in Medical Image
Analysis
- arxiv url: http://arxiv.org/abs/2112.01148v1
- Date: Thu, 2 Dec 2021 11:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 14:05:15.516600
- Title: FIBA: Frequency-Injection based Backdoor Attack in Medical Image
Analysis
- Title(参考訳): FIBA: 医用画像解析における周波数インジェクションによるバックドア攻撃
- Authors: Yu Feng, Benteng Ma, Jing Zhang, Shanshan Zhao, Yong Xia, Dacheng Tao
- Abstract要約: 本稿では,様々な医療画像解析タスクにおいて,攻撃を行うことのできる新しい周波数注入型バックドアアタック法(FIBA)を提案する。
具体的には、FIBAは、両方の画像のスペクトル振幅を線形に組み合わせることで、トリガー画像の低周波情報を有毒画像に注入できる周波数領域のトリガー関数を利用する。
- 参考スコア(独自算出の注目度): 82.2511780233828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the security of AI systems has drawn increasing research
attention, especially in the medical imaging realm. To develop a secure medical
image analysis (MIA) system, it is a must to study possible backdoor attacks
(BAs), which can embed hidden malicious behaviors into the system. However,
designing a unified BA method that can be applied to various MIA systems is
challenging due to the diversity of imaging modalities (e.g., X-Ray, CT, and
MRI) and analysis tasks (e.g., classification, detection, and segmentation).
Most existing BA methods are designed to attack natural image classification
models, which apply spatial triggers to training images and inevitably corrupt
the semantics of poisoned pixels, leading to the failures of attacking dense
prediction models. To address this issue, we propose a novel
Frequency-Injection based Backdoor Attack method (FIBA) that is capable of
delivering attacks in various MIA tasks. Specifically, FIBA leverages a trigger
function in the frequency domain that can inject the low-frequency information
of a trigger image into the poisoned image by linearly combining the spectral
amplitude of both images. Since it preserves the semantics of the poisoned
image pixels, FIBA can perform attacks on both classification and dense
prediction models. Experiments on three benchmarks in MIA (i.e., ISIC-2019 for
skin lesion classification, KiTS-19 for kidney tumor segmentation, and EAD-2019
for endoscopic artifact detection), validate the effectiveness of FIBA and its
superiority over state-of-the-art methods in attacking MIA models as well as
bypassing backdoor defense. The code will be available at
https://github.com/HazardFY/FIBA.
- Abstract(参考訳): 近年、AIシステムのセキュリティは、特に医療画像領域において研究の注目を集めている。
セキュアな医療画像解析(MIA)システムを開発するためには,システム内に隠された悪意のある動作を埋め込むことができるバックドア攻撃(BA)の可能性を研究する必要がある。
しかし、様々なMIAシステムに適用可能な統一BA法を設計することは、画像モダリティ(X線、CT、MRIなど)と分析タスク(分類、検出、セグメント化など)の多様性のために困難である。
既存のBA手法の多くは、画像の訓練に空間的トリガーを適用し、有毒なピクセルの意味を必然的に損なう自然画像分類モデルに攻撃するように設計されている。
この問題に対処するために,様々なMIAタスクで攻撃を配信できる新しい周波数注入型バックドアアタック法(FIBA)を提案する。
具体的には、FIBAは、両方の画像のスペクトル振幅を線形に組み合わせることで、トリガー画像の低周波情報を有毒画像に注入できる周波数領域のトリガー関数を利用する。
有毒画像画素のセマンティクスを保存するため、FIBAは分類モデルと密度予測モデルの両方に対して攻撃を行うことができる。
MIA (ISIC-2019 for skin lesion classification, KiTS-19 for kidney tumor segmentation, EAD-2019 for endoscopic artifact detection) の3つのベンチマーク実験では、FIBAの有効性と、MIAモデルへの攻撃およびバックドア防御をバイパスする最先端の方法よりも優れていることが検証された。
コードはhttps://github.com/HazardFY/FIBA.comから入手できる。
関連論文リスト
- Backdoor Attack with Mode Mixture Latent Modification [26.720292228686446]
本研究では,微調整の要領でバックドアを注入するために,クリーンモデルへの最小限の変更しか必要としないバックドア攻撃パラダイムを提案する。
提案手法の有効性を4つのベンチマーク・データセットで評価した。
論文 参考訳(メタデータ) (2024-03-12T09:59:34Z) - Susceptibility of Adversarial Attack on Medical Image Segmentation
Models [0.0]
我々は,MRIデータセット上で訓練したセグメンテーションモデルに対する敵攻撃の効果について検討した。
医療画像のセグメンテーションモデルは、実際に敵の攻撃に対して脆弱であることがわかった。
トレーニングで使用するものと異なる損失関数を用いることで,高い敵攻撃効果が得られることを示す。
論文 参考訳(メタデータ) (2024-01-20T12:52:20Z) - MITS-GAN: Safeguarding Medical Imaging from Tampering with Generative
Adversarial Networks [52.233065714716886]
本研究では,医療画像の改ざんを防止する新しいアプローチであるMITS-GANを紹介する。
このアプローチは攻撃者のCT-GANアーキテクチャの出力を妨害する。
CTスキャンデータセットの実験結果は、MITS-GANの優れた性能を示している。
論文 参考訳(メタデータ) (2024-01-17T22:30:41Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in
Brain Images [59.85702949046042]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
本手法が正常なサンプルに適用された場合,入力画像は大幅な修正を伴わずに再構成されることを確認した。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - Influencer Backdoor Attack on Semantic Segmentation [34.39357869721371]
セマンティックセグメンテーションモデルにおけるバックドア攻撃について検討する。
本研究では,インフルエンサーバックドアアタック(IBA)について検討する。
IBAは、すべての推定において、非ビビティ画素の分類精度を維持し、すべての犠牲者画素の誤分類を導出することが期待されている。
論文 参考訳(メタデータ) (2023-03-21T17:45:38Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Adversarial attacks on deep learning models for fatty liver disease
classification by modification of ultrasound image reconstruction method [0.8431877864777443]
畳み込みニューラルネットワーク(CNN)は、医用画像解析タスクにおいて顕著な成功を収めた。
CNNは敵攻撃に対して脆弱であり、入力データに適用される小さな摂動でさえ、モデルの性能に大きな影響を及ぼす可能性がある。
超音波(US)イメージングに特有な新たな逆行性攻撃を考案した。
論文 参考訳(メタデータ) (2020-09-07T18:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。