論文の概要: Who's Afraid of Thomas Bayes?
- arxiv url: http://arxiv.org/abs/2107.14601v1
- Date: Fri, 30 Jul 2021 12:54:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 15:00:35.739829
- Title: Who's Afraid of Thomas Bayes?
- Title(参考訳): 誰がトマス・ベイズを恐れてる?
- Authors: Erick Galinkin
- Abstract要約: ベイズ主義とセキュリティの2つの尺度、すなわちプライバシと敵の堅牢性の間の相互作用について検討する。
ベイズニューラルネットワークは、一般の会員推論攻撃に対して弱いが、少なくとも非ベイズ的ニューラルネットワークに比べて頑健であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In many cases, neural networks perform well on test data, but tend to
overestimate their confidence on out-of-distribution data. This has led to
adoption of Bayesian neural networks, which better capture uncertainty and
therefore more accurately reflect the model's confidence. For machine learning
security researchers, this raises the natural question of how making a model
Bayesian affects the security of the model. In this work, we explore the
interplay between Bayesianism and two measures of security: model privacy and
adversarial robustness. We demonstrate that Bayesian neural networks are more
vulnerable to membership inference attacks in general, but are at least as
robust as their non-Bayesian counterparts to adversarial examples.
- Abstract(参考訳): 多くの場合、ニューラルネットワークはテストデータでうまく機能するが、分散データに対する自信を過大評価する傾向がある。
これによりベイズニューラルネットワークが採用され、不確実性を捉え、モデルの信頼性をより正確に反映する。
機械学習のセキュリティ研究者にとって、これはモデルベイジアンがモデルのセキュリティにどのように影響するかという自然な疑問を提起する。
本研究では,ベイジアン主義とセキュリティの2つの尺度,モデルプライバシと敵対的ロバストネスの相互作用を考察する。
ベイズ型ニューラルネットワークは,一般のメンバシップ推論攻撃に対して脆弱であるが,少なくとも非ベイズ型ニューラルネットワークと同等の堅牢性を示す。
関連論文リスト
- Attacking Bayes: On the Adversarial Robustness of Bayesian Neural Networks [10.317475068017961]
我々は,最先端のBNN推論手法と予測パイプラインを破ることが可能であるか検討する。
我々は、最先端の近似推論手法で訓練されたBNNや、ハミルトン・モンテカルロで訓練されたBNNでさえ、敵の攻撃に非常に敏感であることがわかった。
論文 参考訳(メタデータ) (2024-04-27T01:34:46Z) - Robust Models are less Over-Confident [10.42820615166362]
敵の訓練(AT)は、このような攻撃に対して堅牢性を達成することを目的としている。
我々は、高い堅牢な精度を達成するために、様々な敵に訓練されたモデルを経験的に分析する。
ATには興味深い副作用がある。それは、彼らの決定に非常に自信の持たないモデルに繋がる。
論文 参考訳(メタデータ) (2022-10-12T06:14:55Z) - Explicit Tradeoffs between Adversarial and Natural Distributional
Robustness [48.44639585732391]
実際、モデルは信頼性を確保するために両方のタイプの堅牢さを享受する必要があります。
本研究では, 対角線と自然分布の強靭性の間には, 明らかなトレードオフが存在することを示す。
論文 参考訳(メタデータ) (2022-09-15T19:58:01Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Pruning in the Face of Adversaries [0.0]
ニューラルネットワークのプルーニングがL-0,L-2,L-infinity攻撃に対する対向的ロバスト性に及ぼす影響を評価する。
その結果,ニューラルネットワークのプルーニングと対向ロバスト性は相互に排他的ではないことが確認された。
分析を敵のシナリオに付加的な仮定を取り入れた状況にまで拡張し、状況によって異なる戦略が最適であることを示す。
論文 参考訳(メタデータ) (2021-08-19T09:06:16Z) - Evaluating the Robustness of Bayesian Neural Networks Against Different
Types of Attacks [2.599882743586164]
ベイズニューラルネットワークは, 決定論的ニューラルネットワークモデルに対して発生する敵攻撃に対して, はるかに高い堅牢性を達成することを示す。
後肢は、現在進行中の悪意ある活動の安全前駆体として機能する。
これは、安全クリティカルなドメイン内の意思決定パイプライン構築におけるレイヤの利用を推奨する。
論文 参考訳(メタデータ) (2021-06-17T03:18:59Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - The Effect of Prior Lipschitz Continuity on the Adversarial Robustness
of Bayesian Neural Networks [21.36120882036154]
ベイズニューラルネットワーク(BNN)の対角的堅牢性についてより深く考察する。
特に、モデル選択によってBNNの対比堅牢性を高めることができるかどうかを検討する。
我々は、敵対的堅牢性が確かに以前のばらつきに敏感である証拠を見つけます。
論文 参考訳(メタデータ) (2021-01-07T18:51:05Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Do Wider Neural Networks Really Help Adversarial Robustness? [92.8311752980399]
モデルロバスト性は自然精度と摂動安定性のトレードオフと密接に関係していることを示す。
本稿では,ワイドモデル上でラムダ$を適応的に拡大するWidth Adjusted Regularization(WAR)手法を提案する。
論文 参考訳(メタデータ) (2020-10-03T04:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。