論文の概要: Algebraic Adversarial Attacks on Explainability Models
- arxiv url: http://arxiv.org/abs/2503.12683v1
- Date: Sun, 16 Mar 2025 22:55:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:27:59.317783
- Title: Algebraic Adversarial Attacks on Explainability Models
- Title(参考訳): 説明可能性モデルにおける代数的対立攻撃
- Authors: Lachlan Simpson, Federico Costanza, Kyle Millar, Adriel Cheng, Cheng-Chew Lim, Hong Gunn Chew,
- Abstract要約: 代数的対数例は、対数例に対する数学的に抽出可能なアプローチを提供する。
我々は、よく知られた2つの実世界データセットと1つの実世界データセットに対するアプローチを検証する。
- 参考スコア(独自算出の注目度): 5.286919475372417
- License:
- Abstract: Classical adversarial attacks are phrased as a constrained optimisation problem. Despite the efficacy of a constrained optimisation approach to adversarial attacks, one cannot trace how an adversarial point was generated. In this work, we propose an algebraic approach to adversarial attacks and study the conditions under which one can generate adversarial examples for post-hoc explainability models. Phrasing neural networks in the framework of geometric deep learning, algebraic adversarial attacks are constructed through analysis of the symmetry groups of neural networks. Algebraic adversarial examples provide a mathematically tractable approach to adversarial examples. We validate our approach of algebraic adversarial examples on two well-known and one real-world dataset.
- Abstract(参考訳): 古典的敵攻撃は制約付き最適化問題として表現される。
対人攻撃に対する制約付き最適化アプローチの有効性にもかかわらず、対人攻撃がどう発生したかは追跡できない。
本研究では, 逆攻撃に対する代数的アプローチを提案し, ポストホック説明可能性モデルに対する逆攻撃例を生成できる条件について検討する。
幾何学的深層学習の枠組みにおいて,ニューラルネットワークの対称性群を解析することにより,代数的逆数攻撃が構築される。
代数的対数例は、対数例に対する数学的に抽出可能なアプローチを提供する。
2つのよく知られた1つの実世界のデータセットに対する代数的逆例のアプローチを検証する。
関連論文リスト
- Algebraic Adversarial Attacks on Integrated Gradients [5.286919475372417]
パスメソッドは、敵攻撃の影響を受けやすい属性メソッドの一種である。
代数的対数例は、対数例に対する数学的に抽出可能なアプローチを提供する。
論文 参考訳(メタデータ) (2024-07-23T07:17:45Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Advocating for Multiple Defense Strategies against Adversarial Examples [66.90877224665168]
ニューラルネットワークを$ell_infty$敵の例から保護するために設計された防御機構が、性能の低下を実証的に観察されている。
本稿では,この観測を検証した幾何学的解析を行う。
そこで本研究では,この現象の実際的影響を説明するための実証的な知見を多数提示する。
論文 参考訳(メタデータ) (2020-12-04T14:42:46Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。