論文の概要: ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version)
- arxiv url: http://arxiv.org/abs/2509.09787v1
- Date: Thu, 11 Sep 2025 18:44:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.892742
- Title: ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version)
- Title(参考訳): ZORRO: 分散学習のためのゼロ知識ロバスト性とプライバシ(フルバージョン)
- Authors: Nojan Sheybani, Alessandro Pegoraro, Jonathan Knauer, Phillip Rieger, Elissa Mollakuqe, Farinaz Koushanfar, Ahmad-Reza Sadeghi,
- Abstract要約: Split Learning(SL)は、リソース制約のあるクライアントがディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
- 参考スコア(独自算出の注目度): 58.595691399741646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split Learning (SL) is a distributed learning approach that enables resource-constrained clients to collaboratively train deep neural networks (DNNs) by offloading most layers to a central server while keeping in- and output layers on the client-side. This setup enables SL to leverage server computation capacities without sharing data, making it highly effective in resource-constrained environments dealing with sensitive data. However, the distributed nature enables malicious clients to manipulate the training process. By sending poisoned intermediate gradients, they can inject backdoors into the shared DNN. Existing defenses are limited by often focusing on server-side protection and introducing additional overhead for the server. A significant challenge for client-side defenses is enforcing malicious clients to correctly execute the defense algorithm. We present ZORRO, a private, verifiable, and robust SL defense scheme. Through our novel design and application of interactive zero-knowledge proofs (ZKPs), clients prove their correct execution of a client-located defense algorithm, resulting in proofs of computational integrity attesting to the benign nature of locally trained DNN portions. Leveraging the frequency representation of model partitions enables ZORRO to conduct an in-depth inspection of the locally trained models in an untrusted environment, ensuring that each client forwards a benign checkpoint to its succeeding client. In our extensive evaluation, covering different model architectures as well as various attack strategies and data scenarios, we show ZORRO's effectiveness, as it reduces the attack success rate to less than 6\% while causing even for models storing \numprint{1000000} parameters on the client-side an overhead of less than 10 seconds.
- Abstract(参考訳): Split Learning(SL)は、リソース制約のあるクライアントが、クライアント側で内部および出力層を維持しながら、ほとんどのレイヤを中央サーバにオフロードすることで、ディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの計算能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
しかし、分散した性質は、悪意のあるクライアントがトレーニングプロセスを操作できるようにする。
毒を盛った中間勾配を送ることで、共用DNNにバックドアを注入することができる。
既存の防御は、しばしばサーバーサイドの保護に集中し、サーバに追加のオーバーヘッドを導入することで制限される。
クライアント側のディフェンスにとって重要な課題は、悪意のあるクライアントにディフェンスアルゴリズムを正しく実行させることである。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
対話型ゼロ知識証明(ZKP)の新たな設計と応用により,クライアントはクライアント位置防衛アルゴリズムの正しい実行を証明し,局所的に訓練されたDNN部分の良質な性質を証明した。
モデルパーティションの頻度表現を活用することで、ZORROは、信頼できない環境でローカルにトレーニングされたモデルの詳細なインスペクションを実行し、各クライアントがその後続のクライアントに良質なチェックポイントを転送する。
さまざまなモデルアーキテクチャや,さまざまな攻撃戦略やデータシナリオを網羅した大規模な評価では,ZORROの有効性が示され,攻撃成功率が6\%未満に低下する一方で,クライアント側で \numprint{1000000} パラメータを格納するモデルにおいても10秒未満のオーバーヘッドが発生する。
関連論文リスト
- Pigeon-SL: Robust Split Learning Framework for Edge Intelligence under Malicious Clients [53.496957000114875]
我々は,M クライアントのうち少なくとも 1 つの完全正直なクラスタを保証する新しいスキームである Pigeon-SL を紹介する。
各グローバルラウンドでは、アクセスポイントがクライアントをN+1クラスタに分割し、バニラSLを介して独立して各クラスタをトレーニングし、共有データセット上での検証損失を評価する。
損失が最も低いクラスタのみが進歩し、悪意のある更新を分離して破棄する。
論文 参考訳(メタデータ) (2025-08-04T09:34:50Z) - FL-PLAS: Federated Learning with Partial Layer Aggregation for Backdoor Defense Against High-Ratio Malicious Clients [7.1383449614815415]
フェデレートラーニング(FL)は、新たなコラボレーティブ機械学習アプローチとして注目を集めている。
FLの基本アルゴリズムであるFederated Averaging (FedAvg)は、バックドア攻撃の影響を受けやすい。
バックドア攻撃からローカルモデルを効果的に保護できる新しい防御アルゴリズムFL-PLASを提案する。
論文 参考訳(メタデータ) (2025-05-17T14:16:47Z) - SafeSplit: A Novel Defense Against Client-Side Backdoor Attacks in Split Learning (Full Version) [53.16528046390881]
Split Learning(SL)は、複数のクライアントとサーバが共同で学習し、共有ディープラーニング(DNN)上で推論できる分散ディープラーニングアプローチである。
本稿では,split Learning(SL)におけるクライアント側のバックドア攻撃に対する最初の防御であるSafeSplitについて述べる。
クライアントが引き起こした変更を特定し、有毒なモデルを検出するために、2倍の分析を使用する。
論文 参考訳(メタデータ) (2025-01-11T22:20:20Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。