論文の概要: Towards Sybil Resilience in Decentralized Learning
- arxiv url: http://arxiv.org/abs/2306.15044v1
- Date: Mon, 26 Jun 2023 20:04:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 15:27:35.208094
- Title: Towards Sybil Resilience in Decentralized Learning
- Title(参考訳): 分散学習におけるシビルレジリエンスを目指して
- Authors: Thomas Werthenbach, Johan Pouwelse
- Abstract要約: フェデレーション学習は、プライバシ強化機械学習技術であるが、スケーラビリティの制限に悩まされている。
我々は、Sybil毒殺攻撃に対する分散学習のレジリエンスを高めることに焦点を当てた革新的なアルゴリズムであるSybilWallを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is a privacy-enforcing machine learning technology but
suffers from limited scalability. This limitation mostly originates from the
internet connection and memory capacity of the central parameter server, and
the complexity of the model aggregation function. Decentralized learning has
recently been emerging as a promising alternative to federated learning. This
novel technology eliminates the need for a central parameter server by
decentralizing the model aggregation across all participating nodes. Numerous
studies have been conducted on improving the resilience of federated learning
against poisoning and Sybil attacks, whereas the resilience of decentralized
learning remains largely unstudied. This research gap serves as the main
motivator for this study, in which our objective is to improve the Sybil
poisoning resilience of decentralized learning.
We present SybilWall, an innovative algorithm focused on increasing the
resilience of decentralized learning against targeted Sybil poisoning attacks.
By combining a Sybil-resistant aggregation function based on similarity between
Sybils with a novel probabilistic gossiping mechanism, we establish a new
benchmark for scalable, Sybil-resilient decentralized learning.
A comprehensive empirical evaluation demonstrated that SybilWall outperforms
existing state-of-the-art solutions designed for federated learning scenarios
and is the only algorithm to obtain consistent accuracy over a range of
adversarial attack scenarios. We also found SybilWall to diminish the utility
of creating many Sybils, as our evaluations demonstrate a higher success rate
among adversaries employing fewer Sybils. Finally, we suggest a number of
possible improvements to SybilWall and highlight promising future research
directions.
- Abstract(参考訳): フェデレーション学習は、プライバシ強化機械学習技術であるが、スケーラビリティの制限に悩まされている。
この制限は、主に中央パラメータサーバのインターネット接続とメモリ容量、およびモデル集約機能の複雑さに起因している。
分散学習は最近、連合学習の有望な代替手段として登場してきた。
この新技術は,全ノード間のモデルアグリゲーションを分散することにより,中央パラメータサーバの必要性をなくす。
多くの研究が毒殺やシビル攻撃に対する連合学習のレジリエンスを改善するために行われているが、分散学習のレジリエンスはほとんど研究されていない。
この研究のギャップは,分散学習のシビル中毒性を改善することを目的とした,本研究の主な動機となっている。
ターゲットとなるシビル中毒攻撃に対する分散学習のレジリエンスを高めることに焦点を当てた,革新的なアルゴリズムであるsybilwallを提案する。
そこで我々は,Sybils と新しい確率的ゴシップ機構の類似性に基づくSybil-Resilient decentralized Learning のための新しいベンチマークを構築した。
包括的実証評価により、SybilWallは、フェデレーション学習シナリオ用に設計された既存の最先端ソリューションよりも優れており、様々な敵攻撃シナリオに対して一貫した精度を得る唯一のアルゴリズムであることが示された。
我々はまた、SybilWallが多くのSybilsを作成する実用性を減らすことにも気付きました。
最後に、SybilWallの改善点をいくつか提案し、将来的な研究の方向性を強調します。
関連論文リスト
- Decentralized Federated Learning: A Survey on Security and Privacy [15.790159174067174]
フェデレートラーニングは、プライバシー保護機能により、近年急速に発展し、人気が高まっている。
このアーキテクチャにおけるモデル更新と勾配の交換は、悪意のあるユーザに対する新たな攻撃面を提供する。
本研究は,分散化フェデレーション学習の信頼性と妥当性についても考察する。
論文 参考訳(メタデータ) (2024-01-25T23:35:47Z) - Incorporating Neuro-Inspired Adaptability for Continual Learning in
Artificial Intelligence [59.11038175596807]
継続的な学習は、現実世界に強い適応性を持つ人工知能を強化することを目的としている。
既存の進歩は主に、破滅的な忘れを克服するために記憶安定性を維持することに焦点を当てている。
本稿では,学習の可塑性を改善するため,パラメータ分布の古い記憶を適切に減衰させる汎用的手法を提案する。
論文 参考訳(メタデータ) (2023-08-29T02:43:58Z) - Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - Safe Multi-agent Learning via Trapping Regions [89.24858306636816]
我々は、動的システムの定性理論から知られているトラップ領域の概念を適用し、分散学習のための共同戦略空間に安全セットを作成する。
本稿では,既知の学習力学を持つシステムにおいて,候補がトラップ領域を形成することを検証するための二分分割アルゴリズムと,学習力学が未知のシナリオに対するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:47:52Z) - GowFed -- A novel Federated Network Intrusion Detection System [0.15469452301122172]
本研究は,Gower Dissimilarity行列とFederated Averagingを併用したネットワーク脅威検出システムであるGowFedを紹介する。
GowFedのアプローチは,(1)バニラバージョン,(2)アテンション機構を備えたバージョンなど,最先端の知識に基づいて開発されている。
全体として、GowFedは、産業レベルのネットワークにおけるネットワーク脅威を検出するためのフェデレートラーニングとガウワーの相違行列の併用に向けた最初の一歩となる。
論文 参考訳(メタデータ) (2022-10-28T23:53:37Z) - The least-control principle for learning at equilibrium [65.2998274413952]
我々は、平衡反復ニューラルネットワーク、深層平衡モデル、メタラーニングを学ぶための新しい原理を提案する。
私たちの結果は、脳がどのように学習するかを明らかにし、幅広い機械学習問題にアプローチする新しい方法を提供します。
論文 参考訳(メタデータ) (2022-07-04T11:27:08Z) - On the (In)security of Peer-to-Peer Decentralized Machine Learning [16.671864590599288]
我々は、受動的・能動的に非中央集権的な敵に対して、新しい攻撃群を紹介した。
分散学習の提案者による主張とは裏腹に、分散学習は連合学習よりもセキュリティ上の優位性を提供していないことを実証する。
論文 参考訳(メタデータ) (2022-05-17T15:36:50Z) - Robust, Deep, and Reinforcement Learning for Management of Communication
and Power Networks [6.09170287691728]
本論文は、まず、分散不確実性や逆データに対して汎用機械学習モデルを堅牢にするための原則的手法を開発する。
次に、この堅牢なフレームワークの上に構築し、グラフメソッドによる堅牢な半教師付き学習を設計します。
この論文の第2部は、次世代の有線および無線ネットワークの可能性を完全に解き放つことを意図している。
論文 参考訳(メタデータ) (2022-02-08T05:49:06Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。