論文の概要: Miss the Point: Targeted Adversarial Attack on Multiple Landmark
Detection
- arxiv url: http://arxiv.org/abs/2007.05225v1
- Date: Fri, 10 Jul 2020 07:58:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 22:09:21.286108
- Title: Miss the Point: Targeted Adversarial Attack on Multiple Landmark
Detection
- Title(参考訳): ミス・ザ・ポイント:複数のランドマーク検出に対する敵の標的攻撃
- Authors: Qingsong Yao, Zecheng He, Hu Han and S. Kevin Zhou
- Abstract要約: 本稿では,CNNをベースとしたモデルが,逆方向の摂動に対する複数のランドマーク検出に与える影響を初めて検討した。
本稿では,複数のランドマーク検出における最先端モデルに対する適応的反復FGSM攻撃を提案する。
- 参考スコア(独自算出の注目度): 29.83857022733448
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent methods in multiple landmark detection based on deep convolutional
neural networks (CNNs) reach high accuracy and improve traditional clinical
workflow. However, the vulnerability of CNNs to adversarial-example attacks can
be easily exploited to break classification and segmentation tasks. This paper
is the first to study how fragile a CNN-based model on multiple landmark
detection to adversarial perturbations. Specifically, we propose a novel
Adaptive Targeted Iterative FGSM (ATI-FGSM) attack against the state-of-the-art
models in multiple landmark detection. The attacker can use ATI-FGSM to
precisely control the model predictions of arbitrarily selected landmarks,
while keeping other stationary landmarks still, by adding imperceptible
perturbations to the original image. A comprehensive evaluation on a public
dataset for cephalometric landmark detection demonstrates that the adversarial
examples generated by ATI-FGSM break the CNN-based network more effectively and
efficiently, compared with the original Iterative FGSM attack. Our work reveals
serious threats to patients' health. Furthermore, we discuss the limitations of
our method and provide potential defense directions, by investigating the
coupling effect of nearby landmarks, i.e., a major source of divergence in our
experiments. Our source code is available at
https://github.com/qsyao/attack_landmark_detection.
- Abstract(参考訳): 深層畳み込みニューラルネットワーク(cnns)に基づくマルチランドマーク検出手法は, 精度が高く, 従来の臨床ワークフローを改善している。
しかし、cnnの悪意ある攻撃に対する脆弱性は、分類とセグメンテーションタスクを壊すために容易に利用することができる。
本論文は,複数のランドマーク検出に基づくcnnモデルが,逆摂動に対して脆弱であることを示す最初の方法である。
具体的には,マルチランドマーク検出における最先端モデルに対する適応的目標型反復fgsm(ati-fgsm)攻撃を提案する。
攻撃者はAIT-FGSMを使用して、任意に選択されたランドマークのモデル予測を正確に制御し、他の静止ランドマークをそのまま保持することができる。
ATI-FGSMによって生成された敵の例が、元のIterative FGSM攻撃と比較して、CNNベースのネットワークをより効果的かつ効率的に破壊することを示す。
我々の研究は患者の健康に深刻な脅威をもたらす。
さらに,本手法の限界を議論し,近隣のランドマークの結合効果,すなわち実験における発散の主な要因について検討することで,潜在的な防御方向を提供する。
ソースコードはhttps://github.com/qsyao/attack_landmark_detectionで入手できます。
関連論文リスト
- FLTracer: Accurate Poisoning Attack Provenance in Federated Learning [38.47921452675418]
Federated Learning(FL)は、複数のクライアントが共同で共有グローバルモデルをトレーニングできる、有望な分散学習アプローチである。
近年の研究では、FLは様々な毒殺攻撃に弱いことが示されており、グローバルモデルの性能を低下させるか、バックドアを導入することができる。
FLTracerは、様々な攻撃を正確に検出し、攻撃時間、目的、タイプ、および更新の有毒な位置を追跡できる最初のFL攻撃フレームワークである。
論文 参考訳(メタデータ) (2023-10-20T11:24:38Z) - New Adversarial Image Detection Based on Sentiment Analysis [37.139957973240264]
敵攻撃モデル、例えばDeepFoolは、敵のサンプル検出技術の増加とアウトランの段階にある。
本稿では,画像データセットに対する最新の対角攻撃を特定するために,最先端の検出器よりも優れた新しい対角検出法を提案する。
論文 参考訳(メタデータ) (2023-05-03T14:32:21Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Trace and Detect Adversarial Attacks on CNNs using Feature Response Maps [0.3437656066916039]
畳み込みニューラルネットワーク(CNN)に対する敵対的攻撃
本研究では,攻撃防止のための新たな攻撃事例検出手法を提案する。
特徴応答における逆方向の摂動をトラッキングすることで、平均的な局所空間エントロピーを用いた自動検出が可能となる。
論文 参考訳(メタデータ) (2022-08-24T11:05:04Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Learning to Detect Adversarial Examples Based on Class Scores [0.8411385346896413]
我々は、すでに訓練済みの分類モデルのクラススコアに基づいて、敵の攻撃検出についてより詳しく検討する。
本稿では,SVM(Support Vector Machine)をクラススコアで学習し,逆例を検出することを提案する。
提案手法は,実装が容易でありながら,既存の手法と比較して検出率の向上を図っている。
論文 参考訳(メタデータ) (2021-07-09T13:29:54Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。