論文の概要: Client-Cooperative Split Learning
- arxiv url: http://arxiv.org/abs/2603.08421v1
- Date: Mon, 09 Mar 2026 14:17:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.196995
- Title: Client-Cooperative Split Learning
- Title(参考訳): クライアント協調型スプリットラーニング
- Authors: Haiyu Deng, Yanna Jiang, Guangsheng Yu, Qin Wang, Xu Wang, Wei Ni, Shiping Chen, Ren Ping Liu,
- Abstract要約: Split Learning (SL)は、プライバシ制約の下でトレーニング計算をオフロードすることで、サービスを可能にする。
CliCooperは、協調モデルトレーニングサービスに適した多サイクル協調型SLフレームワークである。
CliCooperは2つの新しいデザインを通じて、プライバシーと信頼のギャップを埋める。
- 参考スコア(独自算出の注目度): 22.47753142358317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model training is increasingly offered as a service for resource-constrained data owners to build customized models. Split Learning (SL) enables such services by offloading training computation under privacy constraints, and evolves toward serverless and multi-client settings where model segments are distributed across training clients. This cooperative mode assumes partial trust: data owners hide labels and data from trainer clients, while trainer clients produce verifiable training artifacts and ownership proofs. We present CliCooper, a multi-client cooperative SL framework tailored for cooperative model training services in heterogeneous and partially trusted environments, where one client contributes data, while others collectively act as SL trainers. CliCooper bridges the privacy and trust gaps through two new designs. First, differential privacy-based activation protection and secret label obfuscation safeguard data owners' privacy without degrading model performance. Second, a dynamic chained watermarking scheme cryptographically links training stages on model segments across trainers, ensuring verifiable training integrity, robust model provenance, and copyright protection. Experiments show that CliCooper preserves model accuracy while enhancing resilience to privacy and ownership attacks. It reduces the success rate of clustering attacks (which infer label groups from intermediate activation) to 0%, decreases inversion-reconstruction (which recovers training data) similarity from 0.50 to 0.03, and limits model-extraction-based surrogates to about 1% accuracy, comparable to random guessing.
- Abstract(参考訳): モデルトレーニングは、リソース制約のあるデータ所有者がカスタマイズされたモデルを構築するためのサービスとして、ますます提供されています。
Split Learning(SL)は、プライバシ制約の下でトレーニング計算をオフロードすることで、そのようなサービスを可能にし、トレーニングクライアント間でモデルセグメントが分散されるサーバレスおよびマルチクライアント設定に向けて進化する。
データ所有者は、トレーナークライアントからラベルとデータを隠蔽し、トレーナークライアントは、検証可能なトレーニングアーティファクトとオーナシップの証明を生成する。
CliCooperは、不均一で部分的に信頼された環境下での協調モデルトレーニングサービスに適した多クライアント協調型SLフレームワークであり、一方のクライアントがデータを提供し、他方のクライアントは総括的にSLトレーナーとして機能する。
CliCooperは2つの新しいデザインを通じて、プライバシーと信頼のギャップを埋める。
まず、差分プライバシーベースのアクティベーション保護とシークレットラベルの難読化により、モデル性能を低下させることなく、データ所有者のプライバシを保護する。
第二に、動的連鎖型透かし方式は、トレーナー間のモデルセグメントのトレーニングステージを暗号的にリンクし、信頼性の高いトレーニングの整合性、堅牢なモデル証明、著作権保護を保証する。
実験によると、CliCooperはモデルの正確性を維持しながら、プライバシとオーナシップの攻撃に対するレジリエンスを高める。
クラスタリング攻撃(ラベルグループを中間活性化から推測する)の成功率を0%に減らし、逆再構成(トレーニングデータを復元する)の類似性を0.50から0.03に減らし、モデル抽出に基づくサロゲートを、ランダムな推測に匹敵する約1%の精度に制限する。
関連論文リスト
- Decentralized Privacy-Preserving Federal Learning of Computer Vision Models on Edge Devices [0.0]
機械学習モデルの協調トレーニングには、機密データやプライベートデータを共有するリスクが伴う。
フェデレーション学習は、クライアントデータを共有することなく、単一のグローバルモデルを集合的にトレーニングする方法を提供する。
分類に用いる畳み込みニューラルネットワークの精度に及ぼす勾配圧縮と勾配雑音の負の効果を解析した。
論文 参考訳(メタデータ) (2026-01-08T13:10:33Z) - Enhancing Federated Learning Privacy with QUBO [0.0]
フェデレーテッド・ラーニング(FL)は、プライバシを保ちながらスケーラブルな方法で機械学習(ML)モデルをトレーニングするための広く使われている方法である。
本稿では,トレーニング中のクライアントによる情報漏洩と,グローバルモデルのクエリや取得が可能な敵の2つの脅威ベクトルに着目した。
20ラウンドで300のクライアントを持つMNISTデータセットの実験では、1ラウンドあたり95.2%、累積プライバシー露出が49%減少した。
論文 参考訳(メタデータ) (2025-11-04T18:06:30Z) - ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version) [58.595691399741646]
Split Learning(SL)は、リソース制約のあるクライアントがディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
論文 参考訳(メタデータ) (2025-09-11T18:44:09Z) - Pigeon-SL: Robust Split Learning Framework for Edge Intelligence under Malicious Clients [53.496957000114875]
我々は,M クライアントのうち少なくとも 1 つの完全正直なクラスタを保証する新しいスキームである Pigeon-SL を紹介する。
各グローバルラウンドでは、アクセスポイントがクライアントをN+1クラスタに分割し、バニラSLを介して独立して各クラスタをトレーニングし、共有データセット上での検証損失を評価する。
損失が最も低いクラスタのみが進歩し、悪意のある更新を分離して破棄する。
論文 参考訳(メタデータ) (2025-08-04T09:34:50Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - A Privacy-Preserving and Trustable Multi-agent Learning Framework [34.28936739262812]
本稿では,プライバシ保護と信頼性のある分散学習(PT-DL)を提案する。
PT-DLは、エージェントのデータに対する強力なプライバシ保護を保証するために、差分プライバシに依存する、完全に分散化されたフレームワークである。
本論文は,PT-DLが50%の衝突攻撃に対して,悪意のある信頼モデルで高い確率で回復可能であることを示す。
論文 参考訳(メタデータ) (2021-06-02T15:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。