論文の概要: Online Alternate Generator against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2009.08110v1
- Date: Thu, 17 Sep 2020 07:11:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 11:37:54.803290
- Title: Online Alternate Generator against Adversarial Attacks
- Title(参考訳): 敵攻撃に対するオンライン代替電源
- Authors: Haofeng Li, Yirui Zeng, Guanbin Li, Liang Lin, Yizhou Yu
- Abstract要約: ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
- 参考スコア(独自算出の注目度): 144.45529828523408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of computer vision has witnessed phenomenal progress in recent
years partially due to the development of deep convolutional neural networks.
However, deep learning models are notoriously sensitive to adversarial examples
which are synthesized by adding quasi-perceptible noises on real images. Some
existing defense methods require to re-train attacked target networks and
augment the train set via known adversarial attacks, which is inefficient and
might be unpromising with unknown attack types. To overcome the above issues,
we propose a portable defense method, online alternate generator, which does
not need to access or modify the parameters of the target networks. The
proposed method works by online synthesizing another image from scratch for an
input image, instead of removing or destroying adversarial noises. To avoid
pretrained parameters exploited by attackers, we alternately update the
generator and the synthesized image at the inference stage. Experimental
results demonstrate that the proposed defensive scheme and method outperforms a
series of state-of-the-art defending models against gray-box adversarial
attacks.
- Abstract(参考訳): コンピュータビジョンの分野は、深層畳み込みニューラルネットワークの発展によって近年の現象的な進歩を目撃している。
しかし、ディープラーニングモデルは、実際の画像に準知覚ノイズを追加することで合成される敵の例に敏感である。
既存の防衛方法は、攻撃対象のネットワークを再訓練し、既知の敵攻撃によって設定された列車を増強する必要がある。
上記の問題を克服するために,対象ネットワークのパラメータへのアクセスや修正を必要としない,携帯型防衛手法であるオンライン代替電源を提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音の除去や破壊を行う。
攻撃者が悪用する事前学習パラメータを避けるために,推定段階で生成器と合成画像を交互に更新する。
実験の結果,提案手法は,グレイボックス攻撃に対する最先端防御モデルよりも優れていた。
関連論文リスト
- Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - AdvFoolGen: Creating Persistent Troubles for Deep Classifiers [17.709146615433458]
本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
論文 参考訳(メタデータ) (2020-07-20T21:27:41Z) - OGAN: Disrupting Deepfakes with an Adversarial Attack that Survives
Training [0.0]
我々は,対面型オートエンコーダを妨害する敵攻撃のクラスを導入する。
我々は,Oscillating GAN(OGAN)攻撃を提案する。
これらの結果は、広範囲のドメインに適用可能な、訓練耐性の敵攻撃の存在を示すものである。
論文 参考訳(メタデータ) (2020-06-17T17:18:29Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。