論文の概要: SPADE: A Spectral Method for Black-Box Adversarial Robustness Evaluation
- arxiv url: http://arxiv.org/abs/2102.03716v1
- Date: Sun, 7 Feb 2021 04:41:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 16:11:48.641074
- Title: SPADE: A Spectral Method for Black-Box Adversarial Robustness Evaluation
- Title(参考訳): SPADE : Black-Box Adversarial Robustness 評価のためのスペクトル法
- Authors: Wuxinlin Cheng, Chenhui Deng, Zhiqiang Zhao, Yaohui Cai, Zhiru Zhang,
Zhuo Feng
- Abstract要約: 所定の機械学習(ML)モデルの逆ロバスト性を評価するためのブラックボックススペクトル法を提案する。
一般化されたCourant-Fischer定理を利用して、与えられたモデルの対角的ロバスト性を評価するためのSPADEスコアを提案する。
実験の結果,提案手法は,MNISTとCIFAR-10データセットを逆向きに学習したニューラルネットワークモデルに対して,有望な実験結果をもたらすことが示された。
- 参考スコア(独自算出の注目度): 16.08608364414674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A black-box spectral method is introduced for evaluating the adversarial
robustness of a given machine learning (ML) model. Our approach, named SPADE,
exploits bijective distance mapping between the input/output graphs constructed
for approximating the manifolds corresponding to the input/output data. By
leveraging the generalized Courant-Fischer theorem, we propose a SPADE score
for evaluating the adversarial robustness of a given model, which is proved to
be an upper bound of the best Lipschitz constant under the manifold setting. To
reveal the most non-robust data samples highly vulnerable to adversarial
attacks, we develop a spectral graph embedding procedure leveraging dominant
generalized eigenvectors. This embedding step allows assigning each data sample
a robustness score that can be further harnessed for more effective adversarial
training. Our experiments show the proposed SPADE method leads to promising
empirical results for neural network models adversarially trained with the
MNIST and CIFAR-10 data sets.
- Abstract(参考訳): 所定の機械学習(ML)モデルの逆ロバスト性を評価するためのブラックボックススペクトル法を提案する。
提案手法は,入出力データに対応する多様体を近似するために構築した入出力グラフ間の単射距離マッピングを利用する。
一般化 Courant-Fischer の定理を利用して、与えられたモデルの逆ロバスト性を評価するためのSPADEスコアを提案し、これは多様体設定の下での最良のリプシッツ定数の上界であることが証明される。
逆行攻撃に非常に弱い最も非ロバストなデータサンプルを明らかにするために,支配的一般化固有ベクトルを用いたスペクトルグラフ埋め込み手法を開発した。
この埋め込みステップにより、各データサンプルに堅牢性スコアを割り当てることができ、より効果的な敵対的トレーニングにさらに活用できます。
提案手法は,mnistとcifar-10のデータセットを相反的に学習したニューラルネットワークモデルに対して有望な実験結果をもたらすことを示す。
関連論文リスト
- Confidence Aware Learning for Reliable Face Anti-spoofing [52.23271636362843]
本稿では,その能力境界を意識した信頼認識顔アンチスプーフィングモデルを提案する。
各サンプルの予測中にその信頼性を推定する。
実験の結果,提案したCA-FASは予測精度の低いサンプルを効果的に認識できることがわかった。
論文 参考訳(メタデータ) (2024-11-02T14:29:02Z) - Sub-graph Based Diffusion Model for Link Prediction [43.15741675617231]
拡散確率モデル(Denoising Diffusion Probabilistic Models, DDPM)は、例外的な品質を持つ同時代の生成モデルである。
本研究では,ベイズ式による確率推定過程を分解するために,専用設計を用いたリンク予測のための新しい生成モデルを構築した。
提案手法は,(1)再トレーニングを伴わないデータセット間の転送可能性,(2)限られたトレーニングデータに対する有望な一般化,(3)グラフ敵攻撃に対する堅牢性など,多くの利点を示す。
論文 参考訳(メタデータ) (2024-09-13T02:23:55Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Improving Explainability of Softmax Classifiers Using a Prototype-Based Joint Embedding Method [0.0]
本稿では,ソフトマックス分類器の説明可能性向上のための試作手法を提案する。
モデルアーキテクチャの変更とトレーニングにより、予測に寄与する原型例のサンプル化が可能となる。
我々は、ソフトマックスの信頼性よりも分布データから検出できる不確実性の指標を得る。
論文 参考訳(メタデータ) (2024-07-02T13:59:09Z) - PASA: Attack Agnostic Unsupervised Adversarial Detection using Prediction & Attribution Sensitivity Analysis [2.5347892611213614]
分類のためのディープニューラルネットワークは、サンプル入力に対する小さな摂動が誤った予測につながる敵攻撃に対して脆弱である。
本研究では, モデル予測と特徴属性のこの特性の実用的手法を開発し, 対向サンプルを検出する。
本手法は,敵が防御機構を認識した場合でも,競争性能を示す。
論文 参考訳(メタデータ) (2024-04-12T21:22:21Z) - Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - Sample Complexity of Preference-Based Nonparametric Off-Policy
Evaluation with Deep Networks [58.469818546042696]
我々は、OPEのサンプル効率を人間の好みで研究し、その統計的保証を確立する。
ReLUネットワークのサイズを適切に選択することにより、マルコフ決定過程において任意の低次元多様体構造を活用できることが示される。
論文 参考訳(メタデータ) (2023-10-16T16:27:06Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - Interpreting and Improving Diffusion Models from an Optimization Perspective [4.5993996573872185]
我々はこの観測を用いて、ユークリッド距離関数に適用された近似勾配勾配勾配として拡散モデルを解釈する。
本稿では,理論結果からの洞察を用いてDDIMを一般化した新しい勾配推定サンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T00:56:33Z) - Learn from Unpaired Data for Image Restoration: A Variational Bayes
Approach [18.007258270845107]
境界分布から抽出したデータから結合確率密度関数を学習するための深層生成法 LUD-VAE を提案する。
本稿では,LUD-VAEによって生成された合成データを用いて,実世界の画像認識と超分解能タスクに適用し,モデルを訓練する。
論文 参考訳(メタデータ) (2022-04-21T13:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。