論文の概要: Towards Sybil Resilience in Decentralized Learning
- arxiv url: http://arxiv.org/abs/2306.15044v1
- Date: Mon, 26 Jun 2023 20:04:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 15:27:35.208094
- Title: Towards Sybil Resilience in Decentralized Learning
- Title(参考訳): 分散学習におけるシビルレジリエンスを目指して
- Authors: Thomas Werthenbach, Johan Pouwelse
- Abstract要約: フェデレーション学習は、プライバシ強化機械学習技術であるが、スケーラビリティの制限に悩まされている。
我々は、Sybil毒殺攻撃に対する分散学習のレジリエンスを高めることに焦点を当てた革新的なアルゴリズムであるSybilWallを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is a privacy-enforcing machine learning technology but
suffers from limited scalability. This limitation mostly originates from the
internet connection and memory capacity of the central parameter server, and
the complexity of the model aggregation function. Decentralized learning has
recently been emerging as a promising alternative to federated learning. This
novel technology eliminates the need for a central parameter server by
decentralizing the model aggregation across all participating nodes. Numerous
studies have been conducted on improving the resilience of federated learning
against poisoning and Sybil attacks, whereas the resilience of decentralized
learning remains largely unstudied. This research gap serves as the main
motivator for this study, in which our objective is to improve the Sybil
poisoning resilience of decentralized learning.
We present SybilWall, an innovative algorithm focused on increasing the
resilience of decentralized learning against targeted Sybil poisoning attacks.
By combining a Sybil-resistant aggregation function based on similarity between
Sybils with a novel probabilistic gossiping mechanism, we establish a new
benchmark for scalable, Sybil-resilient decentralized learning.
A comprehensive empirical evaluation demonstrated that SybilWall outperforms
existing state-of-the-art solutions designed for federated learning scenarios
and is the only algorithm to obtain consistent accuracy over a range of
adversarial attack scenarios. We also found SybilWall to diminish the utility
of creating many Sybils, as our evaluations demonstrate a higher success rate
among adversaries employing fewer Sybils. Finally, we suggest a number of
possible improvements to SybilWall and highlight promising future research
directions.
- Abstract(参考訳): フェデレーション学習は、プライバシ強化機械学習技術であるが、スケーラビリティの制限に悩まされている。
この制限は、主に中央パラメータサーバのインターネット接続とメモリ容量、およびモデル集約機能の複雑さに起因している。
分散学習は最近、連合学習の有望な代替手段として登場してきた。
この新技術は,全ノード間のモデルアグリゲーションを分散することにより,中央パラメータサーバの必要性をなくす。
多くの研究が毒殺やシビル攻撃に対する連合学習のレジリエンスを改善するために行われているが、分散学習のレジリエンスはほとんど研究されていない。
この研究のギャップは,分散学習のシビル中毒性を改善することを目的とした,本研究の主な動機となっている。
ターゲットとなるシビル中毒攻撃に対する分散学習のレジリエンスを高めることに焦点を当てた,革新的なアルゴリズムであるsybilwallを提案する。
そこで我々は,Sybils と新しい確率的ゴシップ機構の類似性に基づくSybil-Resilient decentralized Learning のための新しいベンチマークを構築した。
包括的実証評価により、SybilWallは、フェデレーション学習シナリオ用に設計された既存の最先端ソリューションよりも優れており、様々な敵攻撃シナリオに対して一貫した精度を得る唯一のアルゴリズムであることが示された。
我々はまた、SybilWallが多くのSybilsを作成する実用性を減らすことにも気付きました。
最後に、SybilWallの改善点をいくつか提案し、将来的な研究の方向性を強調します。
関連論文リスト
- Continual Learning with Neuromorphic Computing: Theories, Methods, and Applications [5.213243471774097]
自律的なシステムが新しい知識を獲得し、変化する環境に適応できるようにするために、継続的な学習が提案されている。
脳にインスパイアされたスパイキングニューラルネットワーク(SNN)を備えたニューロモルフィックコンピューティングは、低消費電力/エネルギー連続学習を可能にする固有の利点を提供する。
論文 参考訳(メタデータ) (2024-10-11T19:49:53Z) - Byzantine-Robust Aggregation for Securing Decentralized Federated
Learning [0.32985979395737774]
Federated Learning(FL)は、デバイス上でAIモデルをローカルにトレーニングすることで、プライバシの問題に対処する分散機械学習アプローチとして登場した。
分散フェデレートラーニング(DFL)は、中央サーバを排除し、単一障害点の回避を通じてスケーラビリティと堅牢性を向上させることで、FLパラダイムを拡張します。
We present a novel byzantine-robust aggregate algorithm to enhance the security of DFL environment, coin, WFAgg。
論文 参考訳(メタデータ) (2024-09-26T11:36:08Z) - A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Impact of Network Topology on Byzantine Resilience in Decentralized Federated Learning [0.0]
本研究では、複雑な大規模ネットワーク構造における最先端のビザンチン-ロバスト凝集法の効果について検討する。
最先端のビザンツのロバスト・アグリゲーション戦略は、大規模な非完全連結ネットワークではレジリエントではないことが判明した。
論文 参考訳(メタデータ) (2024-07-06T17:47:44Z) - Incorporating Neuro-Inspired Adaptability for Continual Learning in
Artificial Intelligence [59.11038175596807]
継続的な学習は、現実世界に強い適応性を持つ人工知能を強化することを目的としている。
既存の進歩は主に、破滅的な忘れを克服するために記憶安定性を維持することに焦点を当てている。
本稿では,学習の可塑性を改善するため,パラメータ分布の古い記憶を適切に減衰させる汎用的手法を提案する。
論文 参考訳(メタデータ) (2023-08-29T02:43:58Z) - Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - GowFed -- A novel Federated Network Intrusion Detection System [0.15469452301122172]
本研究は,Gower Dissimilarity行列とFederated Averagingを併用したネットワーク脅威検出システムであるGowFedを紹介する。
GowFedのアプローチは,(1)バニラバージョン,(2)アテンション機構を備えたバージョンなど,最先端の知識に基づいて開発されている。
全体として、GowFedは、産業レベルのネットワークにおけるネットワーク脅威を検出するためのフェデレートラーニングとガウワーの相違行列の併用に向けた最初の一歩となる。
論文 参考訳(メタデータ) (2022-10-28T23:53:37Z) - The least-control principle for learning at equilibrium [65.2998274413952]
我々は、平衡反復ニューラルネットワーク、深層平衡モデル、メタラーニングを学ぶための新しい原理を提案する。
私たちの結果は、脳がどのように学習するかを明らかにし、幅広い機械学習問題にアプローチする新しい方法を提供します。
論文 参考訳(メタデータ) (2022-07-04T11:27:08Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。