論文の概要: On the Detection of Image-Scaling Attacks in Machine Learning
- arxiv url: http://arxiv.org/abs/2310.15085v1
- Date: Mon, 23 Oct 2023 16:46:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 18:46:37.616780
- Title: On the Detection of Image-Scaling Attacks in Machine Learning
- Title(参考訳): 機械学習における画像スケーリング攻撃の検出について
- Authors: Erwin Quiring and Andreas M\"uller and Konrad Rieck
- Abstract要約: イメージスケーリングは、機械学習とコンピュータビジョンシステムにおいて不可欠な部分である。
縮小画像全体を修正した画像スケーリング攻撃は、適応的敵の下でも確実に検出できる。
本手法は,画像の一部のみを操作しても,強い検出性能が得られることを示す。
- 参考スコア(独自算出の注目度): 11.103249083138213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image scaling is an integral part of machine learning and computer vision
systems. Unfortunately, this preprocessing step is vulnerable to so-called
image-scaling attacks where an attacker makes unnoticeable changes to an image
so that it becomes a new image after scaling. This opens up new ways for
attackers to control the prediction or to improve poisoning and backdoor
attacks. While effective techniques exist to prevent scaling attacks, their
detection has not been rigorously studied yet. Consequently, it is currently
not possible to reliably spot these attacks in practice.
This paper presents the first in-depth systematization and analysis of
detection methods for image-scaling attacks. We identify two general detection
paradigms and derive novel methods from them that are simple in design yet
significantly outperform previous work. We demonstrate the efficacy of these
methods in a comprehensive evaluation with all major learning platforms and
scaling algorithms. First, we show that image-scaling attacks modifying the
entire scaled image can be reliably detected even under an adaptive adversary.
Second, we find that our methods provide strong detection performance even if
only minor parts of the image are manipulated. As a result, we can introduce a
novel protection layer against image-scaling attacks.
- Abstract(参考訳): 画像スケーリングは、機械学習とコンピュータビジョンシステムの不可欠な部分である。
残念ながら、この前処理ステップは、攻撃者が画像に目立たない変更を加えるいわゆるイメージスケーリング攻撃に弱いため、スケーリング後に新しいイメージになる。
これにより、攻撃者が予測を制御したり、毒やバックドア攻撃を改善する新たな方法が開ける。
スケーリング攻撃を防ぐ効果的な手法は存在するが、その検出は厳密に研究されていない。
そのため、これらの攻撃を実際に確実に発見することはできない。
本稿では,画像スケーリング攻撃に対する検出手法の詳細な体系化と解析を行う。
我々は2つの一般的な検出パラダイムを同定し、設計上は単純であるが、従来よりも大幅に優れていた新しい手法を導出する。
我々は,これらの手法の有効性を,すべての主要な学習プラットフォームとスケーリングアルゴリズムによる包括的評価で実証する。
まず,適応的な敵意の下でも,スケール画像全体を修正した画像スケーリング攻撃を確実に検出できることを示す。
第2に,画像の小さな部分のみを操作しても,本手法は強い検出性能を実現する。
その結果、画像スケーリング攻撃に対する新しい保護層を導入することができる。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Backdoor Attacks on Self-Supervised Learning [22.24046752858929]
自己教師型学習手法は,バックドア攻撃に対して脆弱であることを示す。
攻撃者は、画像に小さなトリガー(攻撃者として知られる)を追加することで、ラベルのないデータの一部を毒する。
本稿では,攻撃を中和する知識蒸留に基づく防衛アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-21T04:22:05Z) - Scale-Adv: A Joint Attack on Image-Scaling and Machine Learning
Classifiers [22.72696699380479]
画像スケーリングと分類の段階を共同でターゲットとした新しい攻撃フレームワークであるScale-Advを提案する。
スケールアタックでは,5つの最先端の防御策のうち4つを,敵の例を組み込むことで回避できることが示される。
分類では、スケールアルゴリズムの弱点を利用して、scale-advは機械学習攻撃の性能を著しく向上できることを示す。
論文 参考訳(メタデータ) (2021-04-18T03:19:15Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Decamouflage: A Framework to Detect Image-Scaling Attacks on
Convolutional Neural Networks [35.30705616146299]
画像スケーリング機能は、画像スケーリング攻撃と呼ばれる攻撃を実行するために逆行的に悪用される可能性がある。
この研究は、デカモフラージュ(Decamouflage)と呼ばれるイメージスケーリング攻撃検出フレームワークを提示している。
デカモフラージュは、(1)再スケーリング、(2)フィルタリング/プール、(3)ステガナリシスの3つの独立した検出方法から構成される。
論文 参考訳(メタデータ) (2020-10-08T02:30:55Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Backdooring and Poisoning Neural Networks with Image-Scaling Attacks [15.807243762876901]
バックドアと毒殺攻撃を隠蔽するための新しい戦略を提案する。
われわれのアプローチは、最近の画像スケーリングに対する攻撃に基づいている。
画像スケーリング攻撃と組み合わせれば,バックドアや中毒も同じように有効であることを示す。
論文 参考訳(メタデータ) (2020-03-19T08:59:50Z) - Detecting Patch Adversarial Attacks with Image Residuals [9.169947558498535]
識別器は、クリーンサンプルと逆サンプルを区別するために訓練される。
得られた残基が敵攻撃のデジタル指紋として機能することを示す。
その結果,提案手法は従来見つからなかった,より強力な攻撃に対して一般化可能であることがわかった。
論文 参考訳(メタデータ) (2020-02-28T01:28:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。