論文の概要: Search Space of Adversarial Perturbations against Image Filters
- arxiv url: http://arxiv.org/abs/2003.02750v1
- Date: Thu, 5 Mar 2020 16:40:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 07:26:50.682237
- Title: Search Space of Adversarial Perturbations against Image Filters
- Title(参考訳): 画像フィルタに対する対向摂動の探索空間
- Authors: Dang Duy Thang and Toshihiro Matsui
- Abstract要約: ディープラーニングのパフォーマンスの優位性は、それ自体が安全上の問題によって脅かされている。
最近の研究では、ディープラーニングシステムは敵の例に対して非常に弱いことが示されている。
本研究では,画像フィルタを用いた防御手法に対する探索空間における対角パターンの生成能力について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The superiority of deep learning performance is threatened by safety issues
for itself. Recent findings have shown that deep learning systems are very weak
to adversarial examples, an attack form that was altered by the attacker's
intent to deceive the deep learning system. There are many proposed defensive
methods to protect deep learning systems against adversarial examples. However,
there is still a lack of principal strategies to deceive those defensive
methods. Any time a particular countermeasure is proposed, a new powerful
adversarial attack will be invented to deceive that countermeasure. In this
study, we focus on investigating the ability to create adversarial patterns in
search space against defensive methods that use image filters. Experimental
results conducted on the ImageNet dataset with image classification tasks
showed the correlation between the search space of adversarial perturbation and
filters. These findings open a new direction for building stronger offensive
methods towards deep learning systems.
- Abstract(参考訳): ディープラーニングのパフォーマンスの優位性は、それ自体の安全性の問題によって脅かされている。
近年の研究では、ディープラーニングシステムは敵の例に非常に弱いことが示されており、これは攻撃者がディープラーニングシステムを欺く意図によって変化した攻撃形式である。
深層学習システムを敵の例から守るための防御方法が数多く提案されている。
しかし、これらの防御手法を欺くための主要な戦略がまだ残っていない。
特定の対策が提案されると、その対策を欺くために新たな強力な敵攻撃が考案される。
本研究では,画像フィルタを用いた防御的手法に対して,検索空間で逆パターンを作成する能力について検討する。
画像分類タスクを用いたImageNetデータセット実験の結果, 対向摂動の探索空間とフィルタとの相関が示された。
これらの知見は、深層学習システムに対してより攻撃的な手法を構築するための新しい方向を開く。
関連論文リスト
- Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Defense against Adversarial Cloud Attack on Remote Sensing Salient
Object Detection [21.028664417133793]
本稿では,雲に近づいた画像に対して,対向露光と加法摂動を伴って調整することを提案する。
DefenseNetは、提案されているAdversarial Cloudをホワイトボックス設定で防御し、ブラックボックス設定で他のアタックメソッドを防御することができる。
論文 参考訳(メタデータ) (2023-06-30T07:06:13Z) - Unsupervised Multi-Criteria Adversarial Detection in Deep Image
Retrieval [12.371928575574751]
最近、通常の画像検索を妨害するためにいくつかの攻撃が提案されている。
本稿では,ハミング空間における一意の敵対行動を特定するための,効率的かつ教師なしの手法を提案する。
特に,ハミング距離,量子化損失,デノベーションという観点から3つの基準を設計し,標的外攻撃と目標外攻撃の両面から防御する。
論文 参考訳(メタデータ) (2023-04-09T12:46:35Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Adversarial Machine Learning in Image Classification: A Survey Towards
the Defender's Perspective [1.933681537640272]
逆の例は、悪意のある最適化アルゴリズムによって生成される微妙な摂動を含む画像である。
ディープラーニングアルゴリズムは、生体認証システムや自動運転車など、セキュリティクリティカルなアプリケーションで使われてきた。
論文 参考訳(メタデータ) (2020-09-08T13:21:55Z) - Encryption Inspired Adversarial Defense for Visual Classification [17.551718914117917]
本稿では,画像暗号化方式に触発された新たな敵防御手法を提案する。
提案手法は秘密鍵を用いたブロックワイズ画素シャッフル方式を用いる。
精度が高い(クリーン画像91.55、CIFAR-10データセットでノイズ距離8/255の逆例89.66)。
論文 参考訳(メタデータ) (2020-05-16T14:18:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。