論文の概要: A Hierarchical Feature Constraint to Camouflage Medical Adversarial
Attacks
- arxiv url: http://arxiv.org/abs/2012.09501v1
- Date: Thu, 17 Dec 2020 11:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:25:04.390330
- Title: A Hierarchical Feature Constraint to Camouflage Medical Adversarial
Attacks
- Title(参考訳): カモフラージュによる医療敵の攻撃に対する階層的特徴制約
- Authors: Qingsong Yao, Zecheng He, Yi Lin, Kai Ma, Yefeng Zheng and S. Kevin
Zhou
- Abstract要約: 特徴空間における医療敵対的攻撃の本質的特性について検討する。
既存の攻撃に対するアドオンとして,新しい階層的特徴制約(hfc)を提案する。
提案手法を2つの医療画像データセットで評価する。
- 参考スコア(独自算出の注目度): 31.650769109900477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) for medical images are extremely vulnerable to
adversarial examples (AEs), which poses security concerns on clinical decision
making. Luckily, medical AEs are also easy to detect in hierarchical feature
space per our study herein. To better understand this phenomenon, we thoroughly
investigate the intrinsic characteristic of medical AEs in feature space,
providing both empirical evidence and theoretical explanations for the
question: why are medical adversarial attacks easy to detect? We first perform
a stress test to reveal the vulnerability of deep representations of medical
images, in contrast to natural images. We then theoretically prove that typical
adversarial attacks to binary disease diagnosis network manipulate the
prediction by continuously optimizing the vulnerable representations in a fixed
direction, resulting in outlier features that make medical AEs easy to detect.
However, this vulnerability can also be exploited to hide the AEs in the
feature space. We propose a novel hierarchical feature constraint (HFC) as an
add-on to existing adversarial attacks, which encourages the hiding of the
adversarial representation within the normal feature distribution. We evaluate
the proposed method on two public medical image datasets, namely {Fundoscopy}
and {Chest X-Ray}. Experimental results demonstrate the superiority of our
adversarial attack method as it bypasses an array of state-of-the-art
adversarial detectors more easily than competing attack methods, supporting
that the great vulnerability of medical features allows an attacker more room
to manipulate the adversarial representations.
- Abstract(参考訳): 医療画像のためのディープニューラルネットワーク(DNN)は、臨床上の意思決定にセキュリティ上の懸念をもたらす敵例(AE)に対して極めて脆弱である。
幸いなことに、医療用AEは階層的な特徴空間でも容易に検出できます。
この現象をよりよく理解するために、我々は特徴空間における医療用aesの本質的特徴を徹底的に調査し、経験的証拠と理論的説明の両方を提供している。
まず,自然画像とは対照的に,医用画像の深部表現の脆弱性を明らかにするためのストレステストを行った。
次に,2次疾患診断ネットワークに対する典型的な敵対的攻撃が,脆弱な表現を一定方向に連続的に最適化することにより予測を操作できることを理論的に証明した。
しかし、この脆弱性は機能領域にAEを隠すために利用することもできる。
本稿では,既存の敵攻撃に対するアドオンとして,新しい階層的特徴制約 (HFC) を提案する。
提案手法は,Fundoscopy と Chest X-Ray の2つの公開医用画像データセット上で評価する。
実験結果から,攻撃手法よりも先進的対人検知器の配列をバイパスし,医療的特徴の重大な脆弱性により,攻撃者が対人表現を操作できる余地が大きくなることが示唆された。
関連論文リスト
- Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Adversarial Medical Image with Hierarchical Feature Hiding [38.551147309335185]
逆例(AEs)は、医用画像の深層学習に基づく手法において、大きなセキュリティ上の欠陥を生じさせる。
PGDのような従来の敵攻撃は特徴空間で容易に区別でき、正確な反応性防御をもたらすことが判明した。
本稿では,従来のホワイトボックス攻撃に対する新たなアドオンであるHFC(Simple-yet- Effective Hierarchical Feature constraint)を提案する。
論文 参考訳(メタデータ) (2023-12-04T07:04:20Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - Survey on Adversarial Attack and Defense for Medical Image Analysis: Methods and Challenges [64.63744409431001]
医療画像解析における敵攻撃・防衛の進歩に関する総合的な調査を報告する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - Toward Robust Diagnosis: A Contour Attention Preserving Adversarial
Defense for COVID-19 Detection [10.953610196636784]
本稿では,肺腔エッジ抽出に基づく Contour Attention Preserving (CAP) 法を提案する。
実験結果から, 本手法は, 複数の対角防御および一般化タスクにおいて, 最先端の性能を実現することが示唆された。
論文 参考訳(メタデータ) (2022-11-30T08:01:23Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - State-of-the-art segmentation network fooled to segment a heart symbol
in chest X-Ray images [5.808118248166566]
アドリアックは、入力データを悪意を持って変更し、自動決定システムの予測を誤解させる。
胸部X線による解剖学的構造の変化に対する逆行性攻撃の効果について検討した。
論文 参考訳(メタデータ) (2021-03-31T22:20:59Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。