論文の概要: Don't Look into the Sun: Adversarial Solarization Attacks on Image
Classifiers
- arxiv url: http://arxiv.org/abs/2308.12661v1
- Date: Thu, 24 Aug 2023 09:10:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 14:37:17.005576
- Title: Don't Look into the Sun: Adversarial Solarization Attacks on Image
Classifiers
- Title(参考訳): 太陽に目を向けるな - 画像分類器による逆太陽化攻撃
- Authors: Paul Gavrikov and Janis Keuper
- Abstract要約: 本稿では,自然画像のグローバルな構造を危険にさらすことなく,概念的に分かりやすい画像の太陽化に基づく攻撃手法を提案する。
トレーニング強化に組み込まれていない場合、精度を著しく低下させる攻撃能力を示す。
- 参考スコア(独自算出の注目度): 16.306183236605364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Assessing the robustness of deep neural networks against out-of-distribution
inputs is crucial, especially in safety-critical domains like autonomous
driving, but also in safety systems where malicious actors can digitally alter
inputs to circumvent safety guards. However, designing effective
out-of-distribution tests that encompass all possible scenarios while
preserving accurate label information is a challenging task. Existing
methodologies often entail a compromise between variety and constraint levels
for attacks and sometimes even both. In a first step towards a more holistic
robustness evaluation of image classification models, we introduce an attack
method based on image solarization that is conceptually straightforward yet
avoids jeopardizing the global structure of natural images independent of the
intensity. Through comprehensive evaluations of multiple ImageNet models, we
demonstrate the attack's capacity to degrade accuracy significantly, provided
it is not integrated into the training augmentations. Interestingly, even then,
no full immunity to accuracy deterioration is achieved. In other settings, the
attack can often be simplified into a black-box attack with model-independent
parameters. Defenses against other corruptions do not consistently extend to be
effective against our specific attack.
Project website: https://github.com/paulgavrikov/adversarial_solarization
- Abstract(参考訳): 特に自動運転のような安全クリティカルな領域では、ディープニューラルネットワークのロバスト性を評価することは重要ですが、悪意のあるアクターがデジタル的に入力を回避して安全ガードを回避できる安全システムでも重要です。
しかし、正確なラベル情報を保持しながら、すべてのシナリオを含む効果的な配布外テストの設計は難しい作業である。
既存の方法論は、攻撃のバラエティレベルと制約レベルの間の妥協を伴います。
画像分類モデルのより包括的ロバスト性評価に向けた第一歩として,概念的には単純だが強度に依存しない自然画像の全体構造を損なうことのない,画像太陽化に基づく攻撃手法を提案する。
複数のImageNetモデルの総合的な評価を通じて、トレーニング強化に組み込まれていない場合、精度を著しく低下させる攻撃能力を示す。
興味深いことに、それでも精度劣化に対する完全な免疫が得られない。
他の設定では、モデルに依存しないパラメータでブラックボックス攻撃に単純化されることが多い。
他の腐敗に対する防御は、我々の特定の攻撃に対して常に有効になるわけではない。
プロジェクトwebサイト: https://github.com/paulgavrikov/adversarial_solarization
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。