論文の概要: Adversarial Medical Image with Hierarchical Feature Hiding
- arxiv url: http://arxiv.org/abs/2312.01679v1
- Date: Mon, 4 Dec 2023 07:04:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 16:00:22.042767
- Title: Adversarial Medical Image with Hierarchical Feature Hiding
- Title(参考訳): 階層的特徴を隠蔽した対人医療画像
- Authors: Qingsong Yao, Zecheng He, Yuexiang Li, Yi Lin, Kai Ma, Yefeng Zheng,
and S. Kevin Zhou
- Abstract要約: 逆例(AEs)は、医用画像の深層学習に基づく手法において、大きなセキュリティ上の欠陥を生じさせる。
PGDのような従来の敵攻撃は特徴空間で容易に区別でき、正確な反応性防御をもたらすことが判明した。
本稿では,従来のホワイトボックス攻撃に対する新たなアドオンであるHFC(Simple-yet- Effective Hierarchical Feature constraint)を提案する。
- 参考スコア(独自算出の注目度): 38.551147309335185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning based methods for medical images can be easily compromised by
adversarial examples (AEs), posing a great security flaw in clinical
decision-making. It has been discovered that conventional adversarial attacks
like PGD which optimize the classification logits, are easy to distinguish in
the feature space, resulting in accurate reactive defenses. To better
understand this phenomenon and reassess the reliability of the reactive
defenses for medical AEs, we thoroughly investigate the characteristic of
conventional medical AEs. Specifically, we first theoretically prove that
conventional adversarial attacks change the outputs by continuously optimizing
vulnerable features in a fixed direction, thereby leading to outlier
representations in the feature space. Then, a stress test is conducted to
reveal the vulnerability of medical images, by comparing with natural images.
Interestingly, this vulnerability is a double-edged sword, which can be
exploited to hide AEs. We then propose a simple-yet-effective hierarchical
feature constraint (HFC), a novel add-on to conventional white-box attacks,
which assists to hide the adversarial feature in the target feature
distribution. The proposed method is evaluated on three medical datasets, both
2D and 3D, with different modalities. The experimental results demonstrate the
superiority of HFC, \emph{i.e.,} it bypasses an array of state-of-the-art
adversarial medical AE detectors more efficiently than competing adaptive
attacks, which reveals the deficiencies of medical reactive defense and allows
to develop more robust defenses in future.
- Abstract(参考訳): 医学画像の深層学習に基づく手法は、相手の例(AE)によって容易に妥協することができ、臨床的な意思決定において大きなセキュリティ上の欠陥を生じさせる。
分類ロジットを最適化するPGDのような従来の敵攻撃は特徴空間を識別しやすく、正確な反応性防御をもたらすことが判明した。
この現象をよりよく理解し, 医療AEに対する反応性防御の信頼性を再評価するために, 従来の医療AEの特徴を徹底的に検討した。
具体的には,従来型の敵攻撃が,一定の方向に脆弱な特徴を継続的に最適化することにより出力を変化させることにより,特徴空間の異常表現につながることを理論的に証明した。
そして、ストレステストを行い、天然画像と比較することにより、医用画像の脆弱性を明らかにする。
興味深いことに、この脆弱性は二重刃の剣であり、AEを隠すために悪用できる。
そこで我々は,従来のホワイトボックス攻撃に対する新たなアドオンである,単純なyet- Effective Hierarchical Feature constraint (HFC)を提案する。
提案手法は2次元と3次元の3つの医学的データセットに対して異なるモードで評価する。
実験結果から,hfcの優越性が示されるが,従来の適応型攻撃よりも効率的に最先端の医療用ae検出器をバイパスし,医療用リアクティブ防御の欠陥を明らかにし,今後より頑健な防御を展開できる。
関連論文リスト
- StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Toward Robust Diagnosis: A Contour Attention Preserving Adversarial
Defense for COVID-19 Detection [10.953610196636784]
本稿では,肺腔エッジ抽出に基づく Contour Attention Preserving (CAP) 法を提案する。
実験結果から, 本手法は, 複数の対角防御および一般化タスクにおいて, 最先端の性能を実現することが示唆された。
論文 参考訳(メタデータ) (2022-11-30T08:01:23Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - MixDefense: A Defense-in-Depth Framework for Adversarial Example
Detection Based on Statistical and Semantic Analysis [14.313178290347293]
AE検出のための多層ディフェンス・イン・ディープス・フレームワーク(MixDefense)を提案する。
入力から抽出した雑音の特徴を利用して、自然画像と改ざん画像の統計的差異を抽出し、AE検出を行う。
提案したMixDefenseソリューションは,既存のAE検出技術よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2021-04-20T15:57:07Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - A Hierarchical Feature Constraint to Camouflage Medical Adversarial
Attacks [31.650769109900477]
特徴空間における医療敵対的攻撃の本質的特性について検討する。
既存の攻撃に対するアドオンとして,新しい階層的特徴制約(hfc)を提案する。
提案手法を2つの医療画像データセットで評価する。
論文 参考訳(メタデータ) (2020-12-17T11:00:02Z) - SLAP: Improving Physical Adversarial Examples with Short-Lived
Adversarial Perturbations [19.14079118174123]
Short-Lived Adrial Perturbations (SLAP) は、光プロジェクターを用いて、敵が物理的に堅牢な現実世界のAEを実現できる新しい技術である。
SLAPは、敵のパッチよりも敵の攻撃に対するコントロールを大きくする。
自動走行シナリオにおけるSLAPの実現可能性について検討し,物体検出タスクと交通標識認識タスクの両方を対象として検討した。
論文 参考訳(メタデータ) (2020-07-08T14:11:21Z) - Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition [133.35968094967626]
骨格に基づく行動認識は、動的状況への強い適応性から注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境で約90%の精度を達成している。
異なる対角的環境下での骨格に基づく行動認識の脆弱性に関する研究はいまだ研究されていない。
論文 参考訳(メタデータ) (2020-05-14T17:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。