論文の概要: Increased-confidence adversarial examples for deep learning
counter-forensics
- arxiv url: http://arxiv.org/abs/2005.06023v2
- Date: Thu, 6 Jan 2022 12:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:46:05.240171
- Title: Increased-confidence adversarial examples for deep learning
counter-forensics
- Title(参考訳): deep learning counter-forensicsにおける信頼度向上の例
- Authors: Wenjie Li, Benedetta Tondi, Rongrong Ni and Mauro Barni
- Abstract要約: 深層学習(DL)に基づくマルチメディア・フォサイシクス(MMF)技術に対するこの種の攻撃を適用する上で、逆例転送性は鍵となる問題である。
本稿では,攻撃の強度を高め,その強度が変化した場合の移動性を評価するための一般的な戦略を提案する。
この方法では, より大きな歪みを伴って, 攻撃伝達性を大幅に向上させることができることを示す。
- 参考スコア(独自算出の注目度): 43.248603381241985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transferability of adversarial examples is a key issue to apply this kind of
attacks against multimedia forensics (MMF) techniques based on Deep Learning
(DL) in a real-life setting. Adversarial example transferability, in fact,
would open the way to the deployment of successful counter forensics attacks
also in cases where the attacker does not have a full knowledge of the
to-be-attacked system. Some preliminary works have shown that adversarial
examples against CNN-based image forensics detectors are in general
non-transferrable, at least when the basic versions of the attacks implemented
in the most popular libraries are adopted. In this paper, we introduce a
general strategy to increase the strength of the attacks and evaluate their
transferability when such a strength varies. We experimentally show that, in
this way, attack transferability can be largely increased, at the expense of a
larger distortion. Our research confirms the security threats posed by the
existence of adversarial examples even in multimedia forensics scenarios, thus
calling for new defense strategies to improve the security of DL-based MMF
techniques.
- Abstract(参考訳): 実生活におけるディープラーニング(DL)に基づくマルチメディア・フォサイシクス(MMF)技術に対するこの種の攻撃を適用する上で,敵対例の転送性は重要な問題である。
実際、攻撃者が攻撃対象のシステムに関する完全な知識を持っていない場合、敵対的な例の転送能力は、成功した反法医学的攻撃への道を開くだろう。
いくつかの予備的な研究は、CNNベースの画像鑑定検出器に対する敵対的な例は、少なくとも最も人気のある図書館で実施された攻撃の基本バージョンが採用されている場合、一般的には非伝達可能であることを示した。
本稿では,攻撃の強度を高め,その強度が変化した場合の移動性を評価するための一般的な戦略を提案する。
このようにして,より大きな歪みを犠牲にして攻撃伝達性を大きく向上できることを実験的に示す。
本研究は,マルチメディア鑑定シナリオにおいても,敵対的事例の存在によって生じるセキュリティ上の脅威を確認し,DLベースのMMF技術のセキュリティを改善するための新たな防衛戦略を求める。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - Bag of Tricks to Boost Adversarial Transferability [5.803095119348021]
ホワイトボックス設定で生成された逆例は、しばしば異なるモデル間で低い転送可能性を示す。
そこで本研究では,既存の敵攻撃の微妙な変化が攻撃性能に大きく影響することを発見した。
既存の敵攻撃の綿密な研究に基づいて、敵の移動性を高めるためのトリックの袋を提案する。
論文 参考訳(メタデータ) (2024-01-16T17:42:36Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Transferability Ranking of Adversarial Examples [20.41013432717447]
本稿では,転送攻撃処理を洗練させるランキング戦略を提案する。
多様な代理モデルの集合を利用することで, 逆例の転送可能性を予測することができる。
提案手法を用いて, 対向例の移動率を, ランダムな選択から, ほぼ上界レベルまで20%に引き上げることができた。
論文 参考訳(メタデータ) (2022-08-23T11:25:16Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Adversarial Threats to DeepFake Detection: A Practical Perspective [12.611342984880826]
本稿では,最先端のDeepFake検出手法の脆弱性を実用的観点から検討する。
我々は、非常に現実的な攻撃シナリオを示すUniversal Adversarial Perturbationsを用いて、よりアクセスしやすい攻撃を作成する。
論文 参考訳(メタデータ) (2020-11-19T16:53:38Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。