論文の概要: A Game-theoretic Framework for Federated Learning
- arxiv url: http://arxiv.org/abs/2304.05836v1
- Date: Tue, 11 Apr 2023 14:20:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 15:02:06.182585
- Title: A Game-theoretic Framework for Federated Learning
- Title(参考訳): フェデレーション学習のためのゲーム理論フレームワーク
- Authors: Xiaojin Zhang, Lixin Fan, Siwei Wang, Wenjie Li, Kai Chen, Qiang Yang
- Abstract要約: そこで我々は,それぞれの支払額の観点から,守備側と攻撃側の両方を考慮に入れた最初のゲーム理論フレームワークを提案する。
我々はこのゲームをFLSG(Federated Learning Security Game)と名付けた。
- 参考スコア(独自算出の注目度): 34.78751699995497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In federated learning, benign participants aim to optimize a global model
collaboratively. However, the risk of \textit{privacy leakage} cannot be
ignored in the presence of \textit{semi-honest} adversaries. Existing research
has focused either on designing protection mechanisms or on inventing attacking
mechanisms. While the battle between defenders and attackers seems
never-ending, we are concerned with one critical question: is it possible to
prevent potential attacks in advance? To address this, we propose the first
game-theoretic framework that considers both FL defenders and attackers in
terms of their respective payoffs, which include computational costs, FL model
utilities, and privacy leakage risks. We name this game the Federated Learning
Security Game (FLSG), in which neither defenders nor attackers are aware of all
participants' payoffs.
To handle the \textit{incomplete information} inherent in this situation, we
propose associating the FLSG with an \textit{oracle} that has two primary
responsibilities. First, the oracle provides lower and upper bounds of the
payoffs for the players. Second, the oracle acts as a correlation device,
privately providing suggested actions to each player. With this novel
framework, we analyze the optimal strategies of defenders and attackers.
Furthermore, we derive and demonstrate conditions under which the attacker, as
a rational decision-maker, should always follow the oracle's suggestion
\textit{not to attack}.
- Abstract(参考訳): 連合学習では、良性参加者はグローバルなモデルを協調的に最適化することを目指している。
しかし、 \textit{semi-honest} 敵の存在下では、 \textit{privacy leakage} のリスクは無視できない。
既存の研究は防御機構の設計や攻撃機構の発明に重点を置いている。
被告側と攻撃側の間での戦いは終わらないように思われるが、我々は1つの重要な疑問に気を配っている。
そこで本稿では,計算コスト,FLモデルユーティリティ,プライバシリークリスクなどを含む各支払額の観点から,FLディフェンダーとアタッカーの両方を考慮に入れた最初のゲーム理論フレームワークを提案する。
このゲームをfederated learning security game(flsg)と呼び、ディフェンダーもアタッカーもすべての参加者の報酬を知らない。
この状況に固有の \textit{incomplete information} を扱うために,2つの主要な責務を持つ \textit{oracle} と FLSG を関連付けることを提案する。
第一に、オラクルはプレイヤーに対する支払いの下位と上位のバウンドを提供する。
第2に、oracleは相関デバイスとして動作し、各プレイヤーに提案するアクションをプライベートに提供します。
この新たな枠組みにより,守備隊と攻撃隊の最適戦略を解析する。
さらに、私たちは、合理的な意思決定者として、攻撃者が常にoracleの提案である \textit{not to attack}に従うべき条件を導出して示します。
関連論文リスト
- Non-Cooperative Backdoor Attacks in Federated Learning: A New Threat Landscape [7.00762739959285]
プライバシ保護モデルトレーニングのためのフェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいままである。
本研究は,発展途上のFL景観におけるバックドア攻撃に対する堅牢な防御の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-05T22:03:13Z) - Toward Optimal LLM Alignments Using Two-Player Games [86.39338084862324]
本稿では,対戦相手と防御エージェントの反復的相互作用を含む2エージェントゲームのレンズによるアライメントについて検討する。
この反復的強化学習最適化がエージェントによって誘導されるゲームに対するナッシュ平衡に収束することを理論的に実証する。
安全シナリオにおける実験結果から、このような競争環境下での学習は、完全に訓練するエージェントだけでなく、敵エージェントと防御エージェントの両方に対する一般化能力の向上したポリシーにつながることが示されている。
論文 参考訳(メタデータ) (2024-06-16T15:24:50Z) - Planning for Attacker Entrapment in Adversarial Settings [16.085007590604327]
本研究では,攻撃者の知識を使わずに攻撃者が操作できる環境で作業している攻撃者に対する防衛戦略を生成する枠組みを提案する。
この問題の定式化により、より単純な無限地平線割引MDPとして捉えることができ、MDPの最適方針は、攻撃者の行動に対するディフェンダーの戦略を与える。
論文 参考訳(メタデータ) (2023-03-01T21:08:27Z) - Game Theoretic Mixed Experts for Combinational Adversarial Machine
Learning [10.368343314144553]
我々は、敵の攻撃と防御をアンサンブルするためのゲーム理論の枠組みを提供する。
本稿では, ランダム化変換, マルチモデル投票方式, 対向検出器アーキテクチャによる防御を目標とする3つの新しい攻撃アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:35:01Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Game Theory for Adversarial Attacks and Defenses [0.0]
敵攻撃は、データセットのサンプルに小さなが故意に最悪の摂動を適用することで、敵の入力を生成することができる。
いくつかの敵防衛技術は、モデルの安全性と堅牢性を改善し、攻撃を避けるために開発されている。
論文 参考訳(メタデータ) (2021-10-08T07:38:33Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。