論文の概要: How to beat a Bayesian adversary
- arxiv url: http://arxiv.org/abs/2407.08678v1
- Date: Thu, 11 Jul 2024 17:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 16:30:47.693211
- Title: How to beat a Bayesian adversary
- Title(参考訳): バイエルン人の敵を倒す方法
- Authors: Zihan Ding, Kexin Jin, Jonas Latz, Chenguang Liu,
- Abstract要約: 本研究では,ベイズ統計による攻撃を最大化ではなく,統計的アプローチを用いて決定する敵について検討する。
ベイズ対数問題は通常のミンマックス問題の緩和である。
我々は、Abramがマッキーン・ブラソフ過程を近似し、Abramの使用を正当化することを示す。
- 参考スコア(独自算出の注目度): 7.027418333365297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks and other modern machine learning models are often susceptible to adversarial attacks. Indeed, an adversary may often be able to change a model's prediction through a small, directed perturbation of the model's input - an issue in safety-critical applications. Adversarially robust machine learning is usually based on a minmax optimisation problem that minimises the machine learning loss under maximisation-based adversarial attacks. In this work, we study adversaries that determine their attack using a Bayesian statistical approach rather than maximisation. The resulting Bayesian adversarial robustness problem is a relaxation of the usual minmax problem. To solve this problem, we propose Abram - a continuous-time particle system that shall approximate the gradient flow corresponding to the underlying learning problem. We show that Abram approximates a McKean-Vlasov process and justify the use of Abram by giving assumptions under which the McKean-Vlasov process finds the minimiser of the Bayesian adversarial robustness problem. We discuss two ways to discretise Abram and show its suitability in benchmark adversarial deep learning experiments.
- Abstract(参考訳): ディープニューラルネットワークやその他の現代の機械学習モデルは、しばしば敵の攻撃を受けやすい。
実際、敵はしばしばモデルの入力の小さな方向の摂動によってモデルの予測を変更することができる。
逆向きの堅牢な機械学習は、通常、最小限の最適化問題に基づいており、最大化ベースの敵攻撃下での機械学習損失を最小限に抑える。
本研究では,最大化ではなくベイズ統計手法を用いて攻撃を決定する敵について検討する。
ベイズ対逆ロバスト性問題は、通常のミンマックス問題の緩和である。
この問題を解決するために,基礎となる学習問題に対応する勾配流を近似する連続時間粒子システムであるAbramを提案する。
我々は、アブラムがマッキーン・ブラソフ過程を近似し、マッキーン・ブラソフ過程がベイズ対逆ロバスト性問題のミニミザーを見つける仮定を与えることにより、アブラムの使用を正当化することを示した。
本稿では,Abramを識別する2つの手法について論じる。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Bridging the Gap Between Adversarial Robustness and Optimization Bias [28.56135898767349]
アドリアールの堅牢性はディープラーニングのオープンな課題であり、ほとんどの場合、敵対的なトレーニングを使用して対処されます。
トレードオフなしに、完全標準精度とある程度の堅牢性を両立させることが可能であることを示す。
特に、線形畳み込みモデルのロバスト性を特徴付け、フーリエ=$ell_infty$ノルムの制約を受ける攻撃に抵抗することを示す。
論文 参考訳(メタデータ) (2021-02-17T16:58:04Z) - The Effect of Prior Lipschitz Continuity on the Adversarial Robustness
of Bayesian Neural Networks [21.36120882036154]
ベイズニューラルネットワーク(BNN)の対角的堅牢性についてより深く考察する。
特に、モデル選択によってBNNの対比堅牢性を高めることができるかどうかを検討する。
我々は、敵対的堅牢性が確かに以前のばらつきに敏感である証拠を見つけます。
論文 参考訳(メタデータ) (2021-01-07T18:51:05Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Learning to Learn from Mistakes: Robust Optimization for Adversarial
Noise [1.976652238476722]
我々はメタ最適化器を訓練し、敵対的な例を使ってモデルを堅牢に最適化することを学び、学習した知識を新しいモデルに転送することができる。
実験の結果、メタ最適化は異なるアーキテクチャやデータセット間で一貫性があることが示され、敵の脆弱性を自動的にパッチすることができることが示唆された。
論文 参考訳(メタデータ) (2020-08-12T11:44:01Z) - Opportunities and Challenges in Deep Learning Adversarial Robustness: A
Survey [1.8782750537161614]
本稿では,機械学習アルゴリズムの安全性を保証するために,強靭に訓練されたアルゴリズムを実装するための戦略について検討する。
我々は、敵の攻撃と防衛を分類し、ロバスト最適化問題をmin-max設定で定式化し、それを3つのサブカテゴリに分類する。
論文 参考訳(メタデータ) (2020-07-01T21:00:32Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。