論文の概要: Adversarial alignment: Breaking the trade-off between the strength of an
attack and its relevance to human perception
- arxiv url: http://arxiv.org/abs/2306.03229v1
- Date: Mon, 5 Jun 2023 20:26:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 18:31:25.473741
- Title: Adversarial alignment: Breaking the trade-off between the strength of an
attack and its relevance to human perception
- Title(参考訳): 敵対的アライメント:攻撃の強さと人間の知覚との関係のトレードオフを打破する
- Authors: Drew Linsley, Pinyuan Feng, Thibaut Boissin, Alekh Karkada Ashok,
Thomas Fel, Stephanie Olaiya, Thomas Serre
- Abstract要約: 敵対的な攻撃は長年、深層学習の「アキレスのヒール」と見なされてきた。
本稿では、ImageNetにおけるDNNの敵攻撃に対する堅牢性がどのように発展し、精度が向上し続けているかを検討する。
- 参考スコア(独自算出の注目度): 10.883174135300418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) are known to have a fundamental sensitivity to
adversarial attacks, perturbations of the input that are imperceptible to
humans yet powerful enough to change the visual decision of a model.
Adversarial attacks have long been considered the "Achilles' heel" of deep
learning, which may eventually force a shift in modeling paradigms.
Nevertheless, the formidable capabilities of modern large-scale DNNs have
somewhat eclipsed these early concerns. Do adversarial attacks continue to pose
a threat to DNNs?
Here, we investigate how the robustness of DNNs to adversarial attacks has
evolved as their accuracy on ImageNet has continued to improve. We measure
adversarial robustness in two different ways: First, we measure the smallest
adversarial attack needed to cause a model to change its object categorization
decision. Second, we measure how aligned successful attacks are with the
features that humans find diagnostic for object recognition. We find that
adversarial attacks are inducing bigger and more easily detectable changes to
image pixels as DNNs grow better on ImageNet, but these attacks are also
becoming less aligned with features that humans find diagnostic for
recognition. To better understand the source of this trade-off, we turn to the
neural harmonizer, a DNN training routine that encourages models to leverage
the same features as humans to solve tasks. Harmonized DNNs achieve the best of
both worlds and experience attacks that are detectable and affect features that
humans find diagnostic for recognition, meaning that attacks on these models
are more likely to be rendered ineffective by inducing similar effects on human
perception. Our findings suggest that the sensitivity of DNNs to adversarial
attacks can be mitigated by DNN scale, data scale, and training routines that
align models with biological intelligence.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Network, DNN)は、敵の攻撃に対して根本的な感度を持つことが知られており、入力の摂動は、モデルの視覚的決定を変えるのに十分強力で、人間には受容できない。
敵対的攻撃は長年、ディープラーニングの「アキレスのヒール」と考えられてきたが、最終的にはモデリングパラダイムのシフトを強いる可能性がある。
それでも、現代の大規模DNNの強大な能力は、これらの初期の懸念を幾らか失っている。
敵の攻撃はDNNに脅威を与え続けるのか?
本稿では、ImageNetにおけるDNNの敵攻撃に対する堅牢性がどのように発展し、精度が向上し続けているかを検討する。
まず、モデルがオブジェクトの分類決定を変更するのに必要な最小の敵攻撃を測定する。
第2に,人間が物体認識の診断を発見できる機能と,攻撃がいかにうまく連携しているかを計測する。
我々は、DNNがImageNetでより良く成長するにつれて、敵対的攻撃が画像画素のより大きく、より容易に検出可能な変更を誘導していることを発見した。
このトレードオフの源泉をよりよく理解するために、我々はDNNトレーニングルーチンであるニューラル・ハーモニエーザ(Neural harmonizer)に目を向ける。
調和したDNNは、人間が認識のために診断する特徴に影響を与え、検知可能な世界と経験の両方の最高の攻撃を達成している。
以上の結果から, DNNの攻撃に対する感受性は, DNNスケール, データスケール, および生物知能とモデルを整合させる訓練ルーチンによって緩和できる可能性が示唆された。
関連論文リスト
- Relationship between Uncertainty in DNNs and Adversarial Attacks [0.0]
ディープニューラルネットワーク(DNN)は、アート結果の状態を達成し、多くの課題において人間の精度よりも優れています。
DNNは結果の不確実性を伴い、あるレベルの信頼の域外にある結果を予測する。
論文 参考訳(メタデータ) (2024-09-20T05:38:38Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - Fixed Inter-Neuron Covariability Induces Adversarial Robustness [26.878913741674058]
敵対的摂動の脆弱性はディープニューラルネットワーク(DNN)の重大な欠陥である
我々は,各ニューロンが固定された,しかし学習された共変性パターンに従うように,活性化が互いに一致したニューロンからなる自己持続活性化層を開発した。
SCA層を持つモデルは高い精度を達成し、対向的な摂動データでトレーニングされることなく、最先端のAuto-PGD攻撃に対して多層パーセプトロンモデルよりもはるかに堅牢性を示した。
論文 参考訳(メタデータ) (2023-08-07T23:46:14Z) - Sneaky Spikes: Uncovering Stealthy Backdoor Attacks in Spiking Neural
Networks with Neuromorphic Data [15.084703823643311]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率の向上と生物学的に有効なデータ処理機能を提供する。
本稿では,ニューロモルフィックデータセットと多様なトリガーを用いたSNNのバックドア攻撃について検討する。
我々は,攻撃成功率を100%まで達成しつつ,クリーンな精度に無視できる影響を保ちながら,様々な攻撃戦略を提示する。
論文 参考訳(メタデータ) (2023-02-13T11:34:17Z) - Harmonizing the object recognition strategies of deep neural networks
with humans [10.495114898741205]
最先端のディープニューラルネットワーク(DNN)は、精度が向上するにつれて、人間との整合性が低下していることを示す。
我々の研究は、現在DNNの設計を導くスケーリング法則が、人間の視覚を悪化させるモデルを生み出した最初の例である。
論文 参考訳(メタデータ) (2022-11-08T20:03:49Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Perceptual Adversarial Robustness: Defense Against Unseen Threat Models [58.47179090632039]
敵対的堅牢性の鍵となる課題は、人間の知覚を正確に数学的に特徴づけることの欠如である。
ニューラル・パーセプチュアル・脅威モデルの下で、我々は新しいパーセプチュアル・アタックとディフェンスを開発する。
NPTMは非常に広範であるため、知覚的攻撃に対する知覚的適応訓練(PAT)は、他の多くの種類の敵対的攻撃に対して堅牢性を与える。
論文 参考訳(メタデータ) (2020-06-22T22:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。