論文の概要: Resilience of Wireless Ad Hoc Federated Learning against Model Poisoning
Attacks
- arxiv url: http://arxiv.org/abs/2211.03489v1
- Date: Mon, 7 Nov 2022 12:19:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 19:25:03.460040
- Title: Resilience of Wireless Ad Hoc Federated Learning against Model Poisoning
Attacks
- Title(参考訳): モデル中毒攻撃に対する無線アドホックフェデレーション学習のレジリエンス
- Authors: Naoya Tezuka, Hideya Ochiai, Yuwei Sun, Hiroshi Esaki
- Abstract要約: 無線アドホック・フェデレーション・ラーニング(WAFL)は、機会に遭遇するモバイルノードによって構成される協調的な機械学習フレームワークである。
本稿では,WAFLのモデル中毒に対するレジリエンスに関する理論的解析を行う。
攻撃経験例の多くは、無攻撃経験例よりも高い精度を達成している。
- 参考スコア(独自算出の注目度): 1.9059434524672096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Wireless ad hoc federated learning (WAFL) is a fully decentralized
collaborative machine learning framework organized by opportunistically
encountered mobile nodes. Compared to conventional federated learning, WAFL
performs model training by weakly synchronizing the model parameters with
others, and this shows great resilience to a poisoned model injected by an
attacker. In this paper, we provide our theoretical analysis of the WAFL's
resilience against model poisoning attacks, by formulating the force balance
between the poisoned model and the legitimate model. According to our
experiments, we confirmed that the nodes directly encountered the attacker has
been somehow compromised to the poisoned model but other nodes have shown great
resilience. More importantly, after the attacker has left the network, all the
nodes have finally found stronger model parameters combined with the poisoned
model. Most of the attack-experienced cases achieved higher accuracy than the
no-attack-experienced cases.
- Abstract(参考訳): wireless ad hoc federated learning (wafl) は、日和見的に遭遇したモバイルノードによって組織された、完全に分散した機械学習フレームワークである。
従来のフェデレート学習と比較して、WAFLはモデルパラメータと他者とを弱い同期でモデルトレーニングを行い、攻撃者が注入した有毒モデルに対して大きな回復力を示す。
本稿では, WAFLのモデル中毒に対するレジリエンスに関する理論的解析を行い, 毒性モデルと正統モデルとの力バランスを定式化する。
実験によると、攻撃者が直接遭遇したノードは、何らかの形で毒殺モデルに汚染されているが、他のノードは大きなレジリエンスを示している。
さらに重要なのは、攻撃者がネットワークを離れた後、すべてのノードが、有毒なモデルと組み合わせたより強力なモデルパラメータを見つけました。
攻撃経験例の多くは、攻撃経験例よりも精度が高い。
関連論文リスト
- Deferred Poisoning: Making the Model More Vulnerable via Hessian Singularization [39.37308843208039]
我々は、より脅迫的なタイプの毒殺攻撃(Dederred Poisoning Attack)を導入する。
この新たな攻撃により、モデルは通常、トレーニングと検証フェーズで機能するが、回避攻撃や自然騒音に非常に敏感になる。
提案手法の理論的および実証的な解析を行い、画像分類タスクの実験を通してその効果を検証した。
論文 参考訳(メタデータ) (2024-11-06T08:27:49Z) - Towards Unified Robustness Against Both Backdoor and Adversarial Attacks [31.846262387360767]
ディープニューラルネットワーク(DNN)は、バックドアと敵の攻撃の両方に対して脆弱であることが知られている。
本稿では,バックドアと敵の攻撃との間には興味深い関係があることを明らかにする。
バックドアと敵の攻撃を同時に防御する新しいプログレッシブ統一防衛アルゴリズムが提案されている。
論文 参考訳(メタデータ) (2024-05-28T07:50:00Z) - Based-CE white-box adversarial attack will not work using super-fitting [10.34121642283309]
ディープニューラルネットワーク(DNN)はその強力な性能のため、様々な分野で広く利用されている。
近年の研究では、ディープラーニングモデルは敵の攻撃に弱いことが示されている。
本稿では,モデルスーパーフィット状態を用いた新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-05-04T09:23:00Z) - SparseFed: Mitigating Model Poisoning Attacks in Federated Learning with
Sparsification [24.053704318868043]
モデル中毒攻撃では、攻撃者は"poisoned"アップデートをアップロードすることで、ターゲットのサブタスクのパフォーマンスを低下させる。
本稿では,グローバルなトップk更新スペーシフィケーションとデバイスレベルのクリッピング勾配を利用して,モデル中毒攻撃を緩和する新しいディフェンスであるalgonameを紹介する。
論文 参考訳(メタデータ) (2021-12-12T16:34:52Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z) - RAB: Provable Robustness Against Backdoor Attacks [20.702977915926787]
我々は、一般的な脅威モデル、特にバックドアアタックに対して、機械学習モデルの堅牢性を証明することに重点を置いている。
トレーニングモデルをスムースにし,バックドア攻撃に対する堅牢性を証明するための,最初の堅牢なトレーニングプロセスであるRABを提案する。
我々は、さまざまな機械学習(ML)モデルに対する包括的な実験を行い、バックドア攻撃に対する信頼性の高い堅牢性を示す最初のベンチマークを提供する。
論文 参考訳(メタデータ) (2020-03-19T17:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。