論文の概要: Effect of Ambient-Intrinsic Dimension Gap on Adversarial Vulnerability
- arxiv url: http://arxiv.org/abs/2403.03967v2
- Date: Sat, 23 Mar 2024 11:22:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 01:06:08.633125
- Title: Effect of Ambient-Intrinsic Dimension Gap on Adversarial Vulnerability
- Title(参考訳): 対向的対向的次元ギャップが対向的脆弱性に及ぼす影響
- Authors: Rajdeep Haldar, Yue Xing, Qifan Song,
- Abstract要約: オフマンフォールド攻撃の存在は、データの内在次元と周囲次元の間の次元ギャップの自然な結果であると主張する。
2層ReLUネットワークの場合、次元ギャップが観測データ空間から引き出されたサンプルの一般化性能に影響を与えないにもかかわらず、クリーントレーニングされたモデルはオフマンフォールド方向の摂動に対してより脆弱であることを示す。
- 参考スコア(独自算出の注目度): 13.196433643727792
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The existence of adversarial attacks on machine learning models imperceptible to a human is still quite a mystery from a theoretical perspective. In this work, we introduce two notions of adversarial attacks: natural or on-manifold attacks, which are perceptible by a human/oracle, and unnatural or off-manifold attacks, which are not. We argue that the existence of the off-manifold attacks is a natural consequence of the dimension gap between the intrinsic and ambient dimensions of the data. For 2-layer ReLU networks, we prove that even though the dimension gap does not affect generalization performance on samples drawn from the observed data space, it makes the clean-trained model more vulnerable to adversarial perturbations in the off-manifold direction of the data space. Our main results provide an explicit relationship between the $\ell_2,\ell_{\infty}$ attack strength of the on/off-manifold attack and the dimension gap.
- Abstract(参考訳): 人間に受け入れられない機械学習モデルに対する敵対的攻撃の存在は、理論的な観点からはまだかなりの謎である。
本研究では, 自然攻撃と対人攻撃の2つの概念, 自然攻撃と対人攻撃と非自然攻撃と対人攻撃の2つの概念を紹介する。
オフマンフォールド攻撃の存在は、データの内在次元と周囲次元の間の次元ギャップの自然な結果であると主張する。
2層ReLUネットワークの場合、次元ギャップが観測データ空間から引き出されたサンプルの一般化性能に影響を与えないにもかかわらず、クリーントレーニングされたモデルはデータ空間のオフマンフォールド方向の逆摂動に対してより脆弱であることを示す。
我々の主な結果は、on/off-manifold攻撃の攻撃強度と次元ギャップとの明確な関係を提供する。
関連論文リスト
- The Uncanny Valley: Exploring Adversarial Robustness from a Flatness Perspective [34.55229189445268]
損失面の平坦性は、一般化と正の相関を持つだけでなく、対向的堅牢性にも関係している。
本稿では,1層のパラメータに対する逆例と相対平坦度の関係を実証的に解析する。
論文 参考訳(メタデータ) (2024-05-27T08:10:46Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - Hard-label Manifolds: Unexpected Advantages of Query Efficiency for
Finding On-manifold Adversarial Examples [67.23103682776049]
画像分類モデルに対する最近のゼロオーダーのハードラベル攻撃は、ファーストオーダーのグラデーションレベルの代替品に匹敵する性能を示している。
最近、グラデーションレベルの設定では、通常の敵対的な例がデータ多様体から離れ、オンマニホールドの例が実際には一般化エラーであることが示されている。
雑音の多い多様体距離オラクルに基づく情報理論論的議論を提案し、敵の勾配推定を通じて多様体情報を漏洩させる。
論文 参考訳(メタデータ) (2021-03-04T20:53:06Z) - Spatiotemporal Attacks for Embodied Agents [119.43832001301041]
我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
論文 参考訳(メタデータ) (2020-05-19T01:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。