論文の概要: DISBELIEVE: Distance Between Client Models is Very Essential for
Effective Local Model Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2308.07387v1
- Date: Mon, 14 Aug 2023 18:09:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 15:08:44.054777
- Title: DISBELIEVE: Distance Between Client Models is Very Essential for
Effective Local Model Poisoning Attacks
- Title(参考訳): DISBELIEVE: クライアントモデル間の距離は、効果的なローカルモデル中毒攻撃に極めて重要である
- Authors: Indu Joshi, Priyank Upadhya, Gaurav Kumar Nayak, Peter Sch\"uffler and
Nassir Navab
- Abstract要約: フェデレーション学習は、患者の機密データを共有することに関連するプライバシー問題に取り組むための有望な方向である。
本稿では,悪質なパラメータや勾配を生成するローカルモデル中毒攻撃であるdisBELIEVEを紹介する。
3つの公開医療画像データセットの実験は、提案されたdisBELIEVE攻撃の有効性を実証している。
- 参考スコア(独自算出の注目度): 44.27262998462829
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is a promising direction to tackle the privacy issues
related to sharing patients' sensitive data. Often, federated systems in the
medical image analysis domain assume that the participating local clients are
\textit{honest}. Several studies report mechanisms through which a set of
malicious clients can be introduced that can poison the federated setup,
hampering the performance of the global model. To overcome this, robust
aggregation methods have been proposed that defend against those attacks. We
observe that most of the state-of-the-art robust aggregation methods are
heavily dependent on the distance between the parameters or gradients of
malicious clients and benign clients, which makes them prone to local model
poisoning attacks when the parameters or gradients of malicious and benign
clients are close. Leveraging this, we introduce DISBELIEVE, a local model
poisoning attack that creates malicious parameters or gradients such that their
distance to benign clients' parameters or gradients is low respectively but at
the same time their adverse effect on the global model's performance is high.
Experiments on three publicly available medical image datasets demonstrate the
efficacy of the proposed DISBELIEVE attack as it significantly lowers the
performance of the state-of-the-art \textit{robust aggregation} methods for
medical image analysis. Furthermore, compared to state-of-the-art local model
poisoning attacks, DISBELIEVE attack is also effective on natural images where
we observe a severe drop in classification performance of the global model for
multi-class classification on benchmark dataset CIFAR-10.
- Abstract(参考訳): フェデレーション学習は、患者の機密データを共有することに関連するプライバシー問題に取り組むための有望な方向である。
しばしば、医療画像分析領域の連合システムは、参加するローカルクライアントが \textit{honest} であると仮定する。
いくつかの研究は、フェデレートされた設定を害し、グローバルモデルの性能を阻害する悪意のあるクライアントのセットを導入できるメカニズムを報告している。
これを克服するために,これらの攻撃を防御するロバストアグリゲーション手法が提案されている。
我々は,最先端のロバストアグリゲーション手法のほとんどが,悪意のあるクライアントと良性クライアントのパラメータや勾配の距離に大きく依存しており,悪意のあるクライアントと良性クライアントのパラメータや勾配が近い場合,ローカルモデルの毒殺攻撃を起こしやすいことを観察する。
これを活用することで,クライアントの良性パラメータや勾配との距離がそれぞれ低いような悪質なパラメータや勾配を生成するローカルモデル中毒攻撃であるdisbelieveを導入すると同時に,グローバルモデルのパフォーマンスに対する悪影響も高い。
医用画像解析のための最先端のtextit{robust aggregate} 手法の性能を著しく低下させるため, 提案した DISBELIEVE 攻撃の有効性を示す3つの医用画像データセットの実験を行った。
さらに、現在最先端の局所モデル中毒攻撃と比較して、DISBELIEVE攻撃は、ベンチマークデータセットCIFAR-10におけるグローバルモデルの分類性能の大幅な低下を観察する自然画像にも有効である。
関連論文リスト
- Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense [3.685395311534351]
Federated Learning(FL)は、分散機械学習ダイアグラムで、複数のクライアントがプライベートなローカルデータを共有せずに、グローバルモデルを協調的にトレーニングすることができる。
FLシステムは、データ中毒やモデル中毒を通じて悪意のあるクライアントで起こっている攻撃に対して脆弱である。
既存の防御方法は通常、特定の種類の中毒を緩和することに焦点を当てており、しばしば目に見えないタイプの攻撃に対して効果がない。
論文 参考訳(メタデータ) (2024-08-05T20:27:45Z) - Precision Guided Approach to Mitigate Data Poisoning Attacks in Federated Learning [4.907460152017894]
フェデレートラーニング(Federated Learning, FL)は、参加者が共有機械学習モデルを集合的にトレーニングすることを可能にする、協調学習パラダイムである。
データ中毒攻撃に対する現在のFL防衛戦略は、正確性と堅牢性の間のトレードオフを含む。
本稿では、FLにおけるデータ中毒攻撃を効果的に対処するために、ゾーンベースの退避更新(ZBDU)機構を利用するFedZZを提案する。
論文 参考訳(メタデータ) (2024-04-05T14:37:49Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、学習モデルにおけるプライバシの問題に対処するように設計されている。
新しい分散パラダイムは、データのプライバシを保護するが、サーバがローカルデータセットにアクセスできないため、攻撃面を区別する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Suppressing Poisoning Attacks on Federated Learning for Medical Imaging [4.433842217026879]
本稿では, ビザンチン障害に対する耐性を有する分散型外乱抑制法(DOS)を提案する。
提案手法は,異なるクライアントのローカルパラメータ更新間の距離を計算し,各クライアントに対してアウトラヤスコアを求める。
得られたアウトリーチスコアはソフトマックス関数を用いて正規化重みに変換され、局所パラメータの重み付け平均がグローバルモデル更新に使用される。
論文 参考訳(メタデータ) (2022-07-15T00:43:34Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。