論文の概要: Achieve Optimal Adversarial Accuracy for Adversarial Deep Learning using
Stackelberg Game
- arxiv url: http://arxiv.org/abs/2207.08137v1
- Date: Sun, 17 Jul 2022 11:06:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 07:19:17.526653
- Title: Achieve Optimal Adversarial Accuracy for Adversarial Deep Learning using
Stackelberg Game
- Title(参考訳): stackelbergゲームを用いた逆ディープラーニングの最適逆精度の実現
- Authors: Xiao-Shan Gao, Shuang Liu, Lijia Yu
- Abstract要約: 敵対的深層学習は、敵の攻撃に対して堅牢なDNNを訓練することである。
ゲーム理論は、敵対的深層学習に関する基本的な疑問のいくつかに答えるために使われてきた。
- 参考スコア(独自算出の注目度): 3.0545518067205895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial deep learning is to train robust DNNs against adversarial
attacks, which is one of the major research focuses of deep learning. Game
theory has been used to answer some of the basic questions about adversarial
deep learning such as the existence of a classifier with optimal robustness and
the existence of optimal adversarial samples for a given class of classifiers.
In most previous work, adversarial deep learning was formulated as a
simultaneous game and the strategy spaces are assumed to be certain probability
distributions in order for the Nash equilibrium to exist. But, this assumption
is not applicable to the practical situation. In this paper, we give answers to
these basic questions for the practical case where the classifiers are DNNs
with a given structure, by formulating the adversarial deep learning as
sequential games. The existence of Stackelberg equilibria for these games are
proved. Furthermore, it is shown that the equilibrium DNN has the largest
adversarial accuracy among all DNNs with the same structure, when
Carlini-Wagner's margin loss is used. Trade-off between robustness and accuracy
in adversarial deep learning is also studied from game theoretical aspect.
- Abstract(参考訳): 敵対的深層学習は、敵対的攻撃に対して堅牢なDNNを訓練することであり、これはディープラーニングに関する主要な研究の1つである。
ゲーム理論は、最適ロバスト性を持つ分類器の存在や、与えられた分類器のクラスに対する最適対向サンプルの存在など、対向的深層学習に関するいくつかの基本的な疑問に答えるために用いられる。
これまでのほとんどの研究において、逆深層学習は同時ゲームとして定式化され、戦略空間はナッシュ均衡が存在するための確率分布であると仮定された。
しかし、この仮定は現実的な状況には当てはまらない。
本稿では,逆深層学習を逐次ゲームとして定式化することにより,分類器が与えられた構造を持つDNNである場合の基本的問題に対する回答を与える。
これらのゲームに対するstackelberg equilibriaの存在が証明されている。
さらに、平衡DNNは、カルリーニ=ワグナーのマージン損失を使用する場合、同じ構造を持つ全てのDNNの中で最大の逆精度を持つことを示した。
対戦型深層学習における堅牢性と精度のトレードオフについても,ゲーム理論の観点から検討した。
関連論文リスト
- Mastering NIM and Impartial Games with Weak Neural Networks: An AlphaZero-inspired Multi-Frame Approach [0.0]
本稿では,Bei Zhou氏の研究成果を検証し,解説する理論的枠組みを提供する。
我々は,AlphaZeroスタイルの強化学習アルゴリズムが,NIMにおける最適プレイの学習に苦慮していることを示す。
論文 参考訳(メタデータ) (2024-11-10T09:34:26Z) - Hyper Evidential Deep Learning to Quantify Composite Classification Uncertainty [11.964685090237392]
本稿では,ハイパーエビデンシャルニューラルネットワーク(HENN, Hyper-Evidential Neural Network)と呼ばれる新しいフレームワークが,複合クラスラベルによる予測の不確かさを明示的にモデル化していることを示す。
以上の結果から,HENNは4つの画像データセットに基づいて最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-04-17T01:26:15Z) - From Images to Connections: Can DQN with GNNs learn the Strategic Game
of Hex? [22.22813915303447]
本稿では,グラフニューラルネットワーク(GNN)が自己再生強化学習において,畳み込みニューラルネットワーク(CNN)を置き換えることができるかどうかを検討する。
GNNはゲーム状態の長期依存状況に対処する上で優れており、過度に適合する傾向が低い。
このことは、ゲーム固有の構造を用いて自己プレイ強化学習を再構築する、潜在的なパラダイムシフトを示唆している。
論文 参考訳(メタデータ) (2023-11-22T14:20:15Z) - Nash Equilibria and Pitfalls of Adversarial Training in Adversarial
Robustness Games [51.90475640044073]
本研究では,2プレイヤゼロサムゲームにおける最適応答戦略の交互化として,対戦訓練について検討する。
一方、ゲームのユニークな純粋なナッシュ均衡が存在し、確実に堅牢である。
論文 参考訳(メタデータ) (2022-10-23T03:21:01Z) - Adversarial Robustness with Semi-Infinite Constrained Learning [177.42714838799924]
入力に対する深い学習は、安全クリティカルなドメインでの使用に関して深刻な疑問を提起している。
本稿では,この問題を緩和するために,Langevin Monte Carlo のハイブリッドトレーニング手法を提案する。
当社のアプローチは、最先端のパフォーマンスと堅牢性の間のトレードオフを軽減することができることを示す。
論文 参考訳(メタデータ) (2021-10-29T13:30:42Z) - KNN-BERT: Fine-Tuning Pre-Trained Models with KNN Classifier [61.063988689601416]
事前学習されたモデルは、クロスエントロピー損失によって最適化された線形分類器を用いて、微調整された下流タスクに広く利用されている。
これらの問題は、同じクラスの類似点と、予測を行う際の矛盾点に焦点を当てた表現を学習することで改善することができる。
本稿では、事前訓練されたモデル微調整タスクにおけるKNearest Neighborsについて紹介する。
論文 参考訳(メタデータ) (2021-10-06T06:17:05Z) - Sample-Efficient Learning of Stackelberg Equilibria in General-Sum Games [78.65798135008419]
一般的なゲームでStackelberg平衡を効率的に学習する方法は、サンプルから非常にオープンなままです。
本稿では,2プレーヤターンベース汎用ゲームにおけるStackelberg平衡のサンプル効率学習に関する理論的研究を開始する。
論文 参考訳(メタデータ) (2021-02-23T05:11:07Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z) - Randomization matters. How to defend against strong adversarial attacks [17.438104235331085]
敵の攻撃と防御は、古典的な結果が適用されない無限ゼロサムゲームを形成することを示す。
本研究の防御方法は,最先端攻撃に対する対人訓練を著しく上回っていることを示す。
論文 参考訳(メタデータ) (2020-02-26T15:31:31Z) - A Limited-Capacity Minimax Theorem for Non-Convex Games or: How I
Learned to Stop Worrying about Mixed-Nash and Love Neural Nets [29.606063890097275]
多目的最適化の特殊な例であるAdrial Trainingは、ますます普及している機械学習技術である。
GANベースの生成再生技術は、Goのようなポーカーゲームに応用されている。
論文 参考訳(メタデータ) (2020-02-14T00:17:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。