論文の概要: RepuNet: A Reputation System for Mitigating Malicious Clients in DFL
- arxiv url: http://arxiv.org/abs/2506.19892v1
- Date: Tue, 24 Jun 2025 10:46:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.481651
- Title: RepuNet: A Reputation System for Mitigating Malicious Clients in DFL
- Title(参考訳): RepuNet:DFLにおける悪意あるクライアントの軽減のためのレコメンデーションシステム
- Authors: Isaac Marroqui Penalva, Enrique Tomás Martínez Beltrán, Manuel Gil Pérez, Alberto Huertas Celdrán,
- Abstract要約: Decentralized Federated Learning (DFL)は、ノードが中央サーバなしでモデルを協調的にトレーニングすることを可能にする。
悪意のあるノードは、この自律性を利用して、破損したモデルを送信したり、モデルの提出を遅らせたり、過剰なメッセージでネットワークを浸水させたりすることができる。
本稿では,DFLにおける脅威を分類し,ノードの挙動を動的に評価する分散評価システムであるRepuNetを提案する。
- 参考スコア(独自算出の注目度): 2.3999111269325266
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Decentralized Federated Learning (DFL) enables nodes to collaboratively train models without a central server, introducing new vulnerabilities since each node independently selects peers for model aggregation. Malicious nodes may exploit this autonomy by sending corrupted models (model poisoning), delaying model submissions (delay attack), or flooding the network with excessive messages, negatively affecting system performance. Existing solutions often depend on rigid configurations or additional infrastructures such as blockchain, leading to computational overhead, scalability issues, or limited adaptability. To overcome these limitations, this paper proposes RepuNet, a decentralized reputation system that categorizes threats in DFL and dynamically evaluates node behavior using metrics like model similarity, parameter changes, message latency, and communication volume. Nodes' influence in model aggregation is adjusted based on their reputation scores. RepuNet was integrated into the Nebula DFL platform and experimentally evaluated with MNIST and CIFAR-10 datasets under non-IID distributions, using federations of up to 25 nodes in both fully connected and random topologies. Different attack intensities, frequencies, and activation intervals were tested. Results demonstrated that RepuNet effectively detects and mitigates malicious behavior, achieving F1 scores above 95% for MNIST scenarios and approximately 76% for CIFAR-10 cases. These outcomes highlight RepuNet's adaptability, robustness, and practical potential for mitigating threats in decentralized federated learning environments.
- Abstract(参考訳): 分散フェデレートラーニング(DFL)は、各ノードが独立したモデルアグリゲーションのピアを選択するため、中央サーバなしでモデルを協調的にトレーニングすることを可能にする。
悪意のあるノードは、破損したモデル(モデル中毒)、遅延モデル提出(遅延攻撃)、あるいは過剰なメッセージでネットワークを浸水させ、システムパフォーマンスに悪影響を及ぼすことによって、この自律性を利用することができる。
既存のソリューションは、しばしば厳格な構成やブロックチェーンのような追加のインフラストラクチャに依存し、計算オーバーヘッドやスケーラビリティの問題、適応性の制限につながる。
本稿では,DFLにおける脅威を分類し,モデル類似性,パラメータ変化,メッセージレイテンシ,通信量といった指標を用いてノードの挙動を動的に評価する分散評価システムであるRepuNetを提案する。
モデルアグリゲーションにおけるノードの影響は、評価スコアに基づいて調整される。
RepuNetはNebula DFLプラットフォームに統合され、MNISTとCIFAR-10データセットを非IID分布下で実験的に評価した。
攻撃強度,周波数,アクティベーション間隔が異なる。
その結果、RepuNetは悪意のある行動を効果的に検出し緩和し、MNISTシナリオの95%以上、CIFAR-10ケースの約76%を達成した。
これらの結果は、RepuNetの適応性、堅牢性、分散化されたフェデレーション学習環境における脅威を軽減する実践的な可能性を強調している。
関連論文リスト
- A Novel Pearson Correlation-Based Merging Algorithm for Robust Distributed Machine Learning with Heterogeneous Data [0.0]
本稿では,局所的な更新の質を改善し,グローバルモデルのロバスト性を高めるための新しい手法を提案する。
提案アルゴリズムは,グローバルモデルの精度を維持しながら,局所ノード数を削減する。
シミュレーション学習シナリオにおけるMNISTデータセットの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2025-01-19T16:59:07Z) - FedEP: Tailoring Attention to Heterogeneous Data Distribution with Entropy Pooling for Decentralized Federated Learning [8.576433180938004]
フェデレートラーニング(FL)における非独立分散(非IID)データは、クライアントの問題を引き起こす。
既存のアプローチでは、この問題を中央サーバを使ってFLで緩和するが、Decentralized FL (DFL) は未調査のままである。
本研究は,DFLにおける非IID課題を軽減するためのフェデレートエントロピープーリング(FedEP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-10T07:39:15Z) - Secure Decentralized Learning with Blockchain [13.795131629462798]
Federated Learning(FL)は、モバイルとIoTデバイスにおける分散機械学習のパラダイムとしてよく知られている。
FLにおける単一障害点問題を回避するため、分散学習(DFL)がモデル集約にピアツーピア通信を使用することが提案されている。
論文 参考訳(メタデータ) (2023-10-10T23:45:17Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。