論文の概要: Scale-Adv: A Joint Attack on Image-Scaling and Machine Learning
Classifiers
- arxiv url: http://arxiv.org/abs/2104.08690v1
- Date: Sun, 18 Apr 2021 03:19:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:31:34.877540
- Title: Scale-Adv: A Joint Attack on Image-Scaling and Machine Learning
Classifiers
- Title(参考訳): Scale-Adv: イメージスケーリングと機械学習の分類器への共同攻撃
- Authors: Yue Gao, Kassem Fawaz
- Abstract要約: 画像スケーリングと分類の段階を共同でターゲットとした新しい攻撃フレームワークであるScale-Advを提案する。
スケールアタックでは,5つの最先端の防御策のうち4つを,敵の例を組み込むことで回避できることが示される。
分類では、スケールアルゴリズムの弱点を利用して、scale-advは機械学習攻撃の性能を著しく向上できることを示す。
- 参考スコア(独自算出の注目度): 22.72696699380479
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As real-world images come in varying sizes, the machine learning model is
part of a larger system that includes an upstream image scaling algorithm. In
this system, the model and the scaling algorithm have become attractive targets
for numerous attacks, such as adversarial examples and the recent image-scaling
attack. In response to these attacks, researchers have developed defense
approaches that are tailored to attacks at each processing stage. As these
defenses are developed in isolation, their underlying assumptions become
questionable when viewing them from the perspective of an end-to-end machine
learning system. In this paper, we investigate whether defenses against scaling
attacks and adversarial examples are still robust when an adversary targets the
entire machine learning system. In particular, we propose Scale-Adv, a novel
attack framework that jointly targets the image-scaling and classification
stages. This framework packs several novel techniques, including novel
representations of the scaling defenses. It also defines two integrations that
allow for attacking the machine learning system pipeline in the white-box and
black-box settings. Based on this framework, we evaluate cutting-edge defenses
at each processing stage. For scaling attacks, we show that Scale-Adv can evade
four out of five state-of-the-art defenses by incorporating adversarial
examples. For classification, we show that Scale-Adv can significantly improve
the performance of machine learning attacks by leveraging weaknesses in the
scaling algorithm. We empirically observe that Scale-Adv can produce
adversarial examples with less perturbation and higher confidence than vanilla
black-box and white-box attacks. We further demonstrate the transferability of
Scale-Adv on a commercial online API.
- Abstract(参考訳): 現実世界の画像のサイズが変わるにつれて、機械学習モデルは上流の画像スケーリングアルゴリズムを含むより大きなシステムの一部である。
このシステムでは, モデルとスケーリングアルゴリズムは, 敵の例や最近の画像スケーリング攻撃など, 多数の攻撃に対して魅力的なターゲットとなっている。
これらの攻撃に対して、研究者は各処理段階での攻撃に適した防御アプローチを開発した。
これらの防御は独立して開発されるため、エンド・ツー・エンドの機械学習システムの観点から見た場合、その基礎となる仮定は疑問視される。
本稿では,敵が機械学習システム全体を対象としている場合,スケーリング攻撃や敵の事例に対する防御が依然として堅牢であるかどうかを検討する。
特に,画像スケーリングと分類段階を共同でターゲットとする新たな攻撃フレームワークであるScale-Advを提案する。
このフレームワークは、スケーリング防御の新しい表現を含む、いくつかの新しいテクニックを詰め込んでいる。
また、ホワイトボックスとブラックボックスの設定で機械学習システムパイプラインを攻撃できる2つの統合も定義している。
この枠組みに基づき,各処理段階における最先端防御を評価する。
スケールアタックでは,5つ中4つを敵の例を組み込むことで回避できることを示す。
分類では、スケールアルゴリズムの弱点を利用して、scale-advは機械学習攻撃の性能を著しく向上できることを示す。
実験により,Scale-Advは,バニラブラックボックスやホワイトボックスアタックよりも摂動が少なく,信頼性の高い逆例を生成できることがわかった。
さらに、商用オンラインAPI上でのScale-Advの転送可能性を示す。
関連論文リスト
- On the Detection of Image-Scaling Attacks in Machine Learning [11.103249083138213]
イメージスケーリングは、機械学習とコンピュータビジョンシステムにおいて不可欠な部分である。
縮小画像全体を修正した画像スケーリング攻撃は、適応的敵の下でも確実に検出できる。
本手法は,画像の一部のみを操作しても,強い検出性能が得られることを示す。
論文 参考訳(メタデータ) (2023-10-23T16:46:28Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Btech thesis report on adversarial attack detection and purification of
adverserially attacked images [0.0]
本論文は, 負の攻撃を受けた画像の検出と浄化に関するものである。
ディープラーニングモデルは、分類、回帰などの様々なタスクのための特定のトレーニング例に基づいて訓練される。
論文 参考訳(メタデータ) (2022-05-09T09:24:11Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Meta Gradient Adversarial Attack [64.5070788261061]
本稿では,MGAA(Metaversa Gradient Adrial Attack)と呼ばれる新しいアーキテクチャを提案する。
具体的には、モデル動物園から複数のモデルをランダムにサンプリングし、異なるタスクを構成するとともに、各タスクにおけるホワイトボックス攻撃とブラックボックス攻撃を反復的にシミュレートする。
ブラックボックス攻撃における勾配方向とブラックボックス攻撃の差を狭めることにより、ブラックボックス設定における逆例の転送性を向上させることができる。
論文 参考訳(メタデータ) (2021-08-09T17:44:19Z) - Black-box adversarial attacks using Evolution Strategies [3.093890460224435]
画像分類タスクに対するブラックボックス対向攻撃の生成について検討する。
その結果、攻撃されたニューラルネットワークは、ほとんどの場合、比較中のすべてのアルゴリズムによって簡単に騙されることがわかった。
一部のブラックボックス最適化アルゴリズムは、攻撃成功率と効率の両面で、よりハードな設定で優れている。
論文 参考訳(メタデータ) (2021-04-30T15:33:07Z) - Automating Defense Against Adversarial Attacks: Discovery of
Vulnerabilities and Application of Multi-INT Imagery to Protect Deployed
Models [0.0]
マルチスペクトル画像アレイとアンサンブル学習者が敵対的攻撃と戦うことを評価します。
サイバーネットワークを守るために、攻撃的(赤チーム)と防御的(青チーム)の両方のアプローチのテクニックを大まかに組み合わせます。
論文 参考訳(メタデータ) (2021-03-29T19:07:55Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Towards Class-Oriented Poisoning Attacks Against Neural Networks [1.14219428942199]
機械学習システムに対する攻撃は、トレーニングデータセットに悪意のあるサンプルを意図的に注入することで、モデルのパフォーマンスを損なう。
そこで本研究では, 破損したモデルに対して, 2つの特定の予測を強制的に行うクラス指向中毒攻撃を提案する。
逆効果の最大化と、有毒なデータ生成の計算複雑性の低減を図るため、勾配に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-31T19:27:37Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。