論文の概要: Adversarial Machine Learning and Defense Game for NextG Signal
Classification with Deep Learning
- arxiv url: http://arxiv.org/abs/2212.11778v1
- Date: Thu, 22 Dec 2022 15:13:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 14:27:47.506260
- Title: Adversarial Machine Learning and Defense Game for NextG Signal
Classification with Deep Learning
- Title(参考訳): 深層学習によるnextg信号分類のためのadversarial machine learning and defense game
- Authors: Yalin E. Sagduyu
- Abstract要約: NextGシステムは、ユーザ機器の識別、物理層認証、既存ユーザの検出など、さまざまなタスクにディープニューラルネットワーク(DNN)を使用することができる。
本稿では,深層学習に基づくNextG信号分類のための攻撃と防御の相互作用を研究するゲーム理論フレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.1726528038065764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a game-theoretic framework to study the interactions of
attack and defense for deep learning-based NextG signal classification. NextG
systems such as the one envisioned for a massive number of IoT devices can
employ deep neural networks (DNNs) for various tasks such as user equipment
identification, physical layer authentication, and detection of incumbent users
(such as in the Citizens Broadband Radio Service (CBRS) band). By training
another DNN as the surrogate model, an adversary can launch an inference
(exploratory) attack to learn the behavior of the victim model, predict
successful operation modes (e.g., channel access), and jam them. A defense
mechanism can increase the adversary's uncertainty by introducing controlled
errors in the victim model's decisions (i.e., poisoning the adversary's
training data). This defense is effective against an attack but reduces the
performance when there is no attack. The interactions between the defender and
the adversary are formulated as a non-cooperative game, where the defender
selects the probability of defending or the defense level itself (i.e., the
ratio of falsified decisions) and the adversary selects the probability of
attacking. The defender's objective is to maximize its reward (e.g., throughput
or transmission success ratio), whereas the adversary's objective is to
minimize this reward and its attack cost. The Nash equilibrium strategies are
determined as operation modes such that no player can unilaterally improve its
utility given the other's strategy is fixed. A fictitious play is formulated
for each player to play the game repeatedly in response to the empirical
frequency of the opponent's actions. The performance in Nash equilibrium is
compared to the fixed attack and defense cases, and the resilience of NextG
signal classification against attacks is quantified.
- Abstract(参考訳): 本稿では,深層学習に基づくNextG信号分類のための攻撃と防御の相互作用を研究するゲーム理論フレームワークを提案する。
膨大な数のIoTデバイスを想定しているNextGシステムでは、ユーザ機器の識別、物理層認証、既存のユーザの検出(Citizens Broadband Radio Service (CBRS)バンドなど)など、さまざまなタスクにディープニューラルネットワーク(DNN)を使用することができる。
別のDNNを代理モデルとして訓練することにより、相手は推論(探索)攻撃を起動し、被害者モデルの振る舞いを学習し、正常な操作モード(チャンネルアクセスなど)を予測し、それらを妨害することができる。
防御機構は、被害者モデルの判断(すなわち、敵のトレーニングデータを害する)に制御エラーを導入することにより、敵の不確実性を高めることができる。
この防御は攻撃に対して効果的であるが、攻撃がなければ性能を低下させる。
ディフェンダーと相手との相互作用を非協調ゲームとして定式化し、ディフェンダーがディフェンディングの確率又はディフェンダーレベル自体(すなわち、偽判定の比率)を選択し、相手がアタックの確率を選択する。
ディフェンダーの目的は報酬(スループットや送信成功率など)を最大化することであり、相手の目的はこの報酬と攻撃コストを最小化することである。
ナッシュ均衡戦略は、相手の戦略が固定されているため、一方的にその効性を改善できないような操作モードとして決定される。
相手のアクションの経験的頻度に応じて、各プレイヤーが繰り返しゲームを行うように架空のプレイを定式化する。
ナッシュ平衡の性能は, 固定攻撃および防御事例と比較し, 攻撃に対するNextG信号分類のレジリエンスを定量化する。
関連論文リスト
- Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - Optimal Attack and Defense for Reinforcement Learning [11.36770403327493]
敵RLでは、外部攻撃者は、環境との相互作用を操作できる。
我々は、攻撃者が予想される報酬を最大化するステルス攻撃を設計する際の問題を示す。
被害者に対する最適な防衛方針は,Stackelbergゲームに対する解決策として計算できる,と我々は主張する。
論文 参考訳(メタデータ) (2023-11-30T21:21:47Z) - Game Theoretic Mixed Experts for Combinational Adversarial Machine
Learning [10.368343314144553]
我々は、敵の攻撃と防御をアンサンブルするためのゲーム理論の枠組みを提供する。
本稿では, ランダム化変換, マルチモデル投票方式, 対向検出器アーキテクチャによる防御を目標とする3つの新しい攻撃アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:35:01Z) - Game Theory for Adversarial Attacks and Defenses [0.0]
敵攻撃は、データセットのサンプルに小さなが故意に最悪の摂動を適用することで、敵の入力を生成することができる。
いくつかの敵防衛技術は、モデルの安全性と堅牢性を改善し、攻撃を避けるために開発されている。
論文 参考訳(メタデータ) (2021-10-08T07:38:33Z) - Learning Generative Deception Strategies in Combinatorial Masking Games [27.2744631811653]
詐欺の1つの方法は、システムがどのように構成されているかに関する情報を隠蔽したり、マスキングしたりすることである。
本稿では,攻撃者側がマスクする属性のサブセットを選択するのに対して,攻撃者は攻撃を行うエクスプロイトを選択することで応答する,結果として生じるディフェンダー・アタックラー相互作用のゲーム理論モデルを提案する。
両プレイヤーの戦略をニューラルネットワークとして表現することにより,そのようなゲームを概ね解くための,新しい高度にスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-23T20:42:44Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - What Doesn't Kill You Makes You Robust(er): Adversarial Training against
Poisons and Backdoors [57.040948169155925]
敵対的なトレーニングフレームワークを拡張し、(訓練時間)中毒やバックドア攻撃から防御します。
本手法は, トレーニング中に毒を発生させ, トレーニングバッチに注入することにより, ネットワークを中毒の影響に敏感化する。
この防御は、適応攻撃に耐え、多様な脅威モデルに一般化し、以前の防御よりも優れた性能のトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2021-02-26T17:54:36Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。