論文の概要: MANDERA: Malicious Node Detection in Federated Learning via Ranking
- arxiv url: http://arxiv.org/abs/2110.11736v1
- Date: Fri, 22 Oct 2021 12:14:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 15:34:11.587893
- Title: MANDERA: Malicious Node Detection in Federated Learning via Ranking
- Title(参考訳): mandera: ランキングによる連合学習における悪意のあるノード検出
- Authors: Wanchuang Zhu, Benjamin Zi Hao Zhao, Simon Luo, Ke Deng
- Abstract要約: フェデレーション学習は、モデルの整合性攻撃に対して脆弱である。
本稿では,manderaと呼ばれる悪質なノード検出手法を提案する。
我々は、穏やかな条件下で、MANDERAは典型的なビザンチン攻撃の下で、すべての悪意のあるノードを検出することが保証されていることを証明した。
- 参考スコア(独自算出の注目度): 6.285598868317137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is a distributed learning paradigm which seeks to preserve
the privacy of each participating node's data. However, federated learning is
vulnerable to attacks, specifically to our interest, model integrity attacks.
In this paper, we propose a novel method for malicious node detection called
MANDERA. By transferring the original message matrix into a ranking matrix
whose column shows the relative rankings of all local nodes along different
parameter dimensions, our approach seeks to distinguish the malicious nodes
from the benign ones with high efficiency based on key characteristics of the
rank domain. We have proved, under mild conditions, that MANDERA is guaranteed
to detect all malicious nodes under typical Byzantine attacks with no prior
knowledge or history about the participating nodes. The effectiveness of the
proposed approach is further confirmed by experiments on two classic datasets,
CIFAR-10 and MNIST. Compared to the state-of-art methods in the literature for
defending Byzantine attacks, MANDERA is unique in its way to identify the
malicious nodes by ranking and its robustness to effectively defense a wide
range of attacks.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、各ノードのデータのプライバシを維持するための分散学習パラダイムである。
しかし、連合学習は、特に、モデル完全性攻撃に対する攻撃に対して脆弱である。
本稿では,manderaと呼ばれる悪意のあるノード検出手法を提案する。
元のメッセージマトリクスを各局所ノードの相対的なランキングを示す列を異なるパラメータ次元に沿って示すランキングマトリクスに移すことで,悪意のあるノードと良性ノードをランクドメインの重要な特性に基づいて高い効率で区別することを目指す。
軽度な条件下では、マンデラは典型的なビザンチン攻撃下で全ての悪意のあるノードを検出することが保証されており、そのノードに関する事前の知識や履歴は得られていない。
提案手法の有効性は、CIFAR-10とMNISTという2つの古典的データセットの実験によってさらに確認される。
ビザンチン攻撃を防御する文献の最先端の手法と比較すると、マンデラはランク付けによって悪意のあるノードを識別し、幅広い攻撃を効果的に防御する強固さを特徴とする。
関連論文リスト
- FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、学習モデルにおけるプライバシの問題に対処するように設計されている。
新しい分散パラダイムは、データのプライバシを保護するが、サーバがローカルデータセットにアクセスできないため、攻撃面を区別する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - LGTBIDS: Layer-wise Graph Theory Based Intrusion Detection System in
Beyond 5G [9.63617966257402]
侵入検知は、通信ネットワークのセキュリティを確保するための中心的なアプローチを示す。
The Layerwise Graph Theory-Based Intrusion Detection System (LGTBIDS) algorithm is designed to detect the attacked node。
結果は、より良いパフォーマンス、低い時間計算、低い複雑さを検証します。
論文 参考訳(メタデータ) (2022-10-06T05:32:03Z) - A Systematic Evaluation of Node Embedding Robustness [77.29026280120277]
本研究では,ノード埋め込みモデルのランダムおよび逆毒攻撃に対する経験的ロバスト性を評価する。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替えの戦略を比較した。
その結果,ノード分類はネットワーク再構成とは対照的に,高い性能劣化に悩まされていることがわかった。
論文 参考訳(メタデータ) (2022-09-16T17:20:23Z) - A Tale of HodgeRank and Spectral Method: Target Attack Against Rank
Aggregation Is the Fixed Point of Adversarial Game [153.74942025516853]
ランクアグリゲーション手法の本質的な脆弱性は文献ではよく研究されていない。
本稿では,ペアデータの変更による集計結果の指定を希望する目的のある敵に焦点をあてる。
提案した標的攻撃戦略の有効性は,一連の玩具シミュレーションと実世界のデータ実験によって実証された。
論文 参考訳(メタデータ) (2022-09-13T05:59:02Z) - Evaluation of Neural Networks Defenses and Attacks using NDCG and
Reciprocal Rank Metrics [6.6389732792316]
分類タスクにおけるニューラルネットワークの出力に対する攻撃効果、防衛効果の回復効果を特に測定するために設計された2つの指標を示す。
正規化された累積ゲインと、情報検索文献で使用される相互ランクの指標に着想を得て、ニューラルネットワーク予測を結果のランクリストとして扱う。
一般的な分類指標と比較すると,提案指標は優れた情報的・独特性を示す。
論文 参考訳(メタデータ) (2022-01-10T12:54:45Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。