論文の概要: Robust Client-Server Watermarking for Split Federated Learning
- arxiv url: http://arxiv.org/abs/2511.13598v1
- Date: Mon, 17 Nov 2025 16:58:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 18:52:09.624632
- Title: Robust Client-Server Watermarking for Split Federated Learning
- Title(参考訳): 分散学習のためのロバストクライアントサーバ透かし
- Authors: Jiaxiong Tang, Zhengchunmin Dai, Liantao Wu, Peng Sun, Honglong Chen, Zhenfu Cao,
- Abstract要約: Split Federated Learning (SFL)は、プライバシー保護の性質と計算オーバーヘッドの低さで有名である。
本稿では,SFL用クライアントサーバ透かし埋め込みを用いたロバストモデル知的財産保護スキームRISEを提案する。
- 参考スコア(独自算出の注目度): 14.772619626732892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split Federated Learning (SFL) is renowned for its privacy-preserving nature and low computational overhead among decentralized machine learning paradigms. In this framework, clients employ lightweight models to process private data locally and transmit intermediate outputs to a powerful server for further computation. However, SFL is a double-edged sword: while it enables edge computing and enhances privacy, it also introduces intellectual property ambiguity as both clients and the server jointly contribute to training. Existing watermarking techniques fail to protect both sides since no single participant possesses the complete model. To address this, we propose RISE, a Robust model Intellectual property protection scheme using client-Server watermark Embedding for SFL. Specifically, RISE adopts an asymmetric client-server watermarking design: the server embeds feature-based watermarks through a loss regularization term, while clients embed backdoor-based watermarks by injecting predefined trigger samples into private datasets. This co-embedding strategy enables both clients and the server to verify model ownership. Experimental results on standard datasets and multiple network architectures show that RISE achieves over $95\%$ watermark detection rate ($p-value \lt 0.03$) across most settings. It exhibits no mutual interference between client- and server-side watermarks and remains robust against common removal attacks.
- Abstract(参考訳): Split Federated Learning (SFL)は、分散機械学習パラダイムにおけるプライバシー保護の性質と計算オーバーヘッドの低さで有名である。
このフレームワークでは、クライアントは軽量モデルを使用してプライベートデータをローカルに処理し、中間出力を強力なサーバに送信し、さらなる計算を行う。
しかし、SFLは、エッジコンピューティングを可能にし、プライバシーを高める一方で、クライアントとサーバの両方が共同でトレーニングに貢献するので、知的財産の曖昧さももたらします。
既存の透かし技術は、一人の参加者が完全なモデルを持っていないため、双方を保護できない。
そこで本研究では,SFL用クライアントサーバ透かし埋め込みを用いたロバストモデル知的財産保護スキームRISEを提案する。
具体的には、RISEは非対称なクライアントサーバの透かし設計を採用しており、サーバは損失正規化期間を通じて特徴ベースの透かしを埋め込む一方、クライアントは予め定義されたトリガサンプルをプライベートデータセットに注入することで、バックドアベースの透かしを埋め込む。
この共同埋め込み戦略により、クライアントとサーバの両方がモデルのオーナシップを検証することができる。
標準データセットと複数のネットワークアーキテクチャの実験結果は、RISEがほとんどの設定で9,5\%以上の透かし検出レート(p-value \lt 0.03$)を達成したことを示している。
クライアント側とサーバ側の透かしの間には相互に干渉がなく、一般的な削除攻撃に対して堅牢である。
関連論文リスト
- ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version) [58.595691399741646]
Split Learning(SL)は、リソース制約のあるクライアントがディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
論文 参考訳(メタデータ) (2025-09-11T18:44:09Z) - FedRand: Enhancing Privacy in Federated Learning with Randomized LoRA Subparameter Updates [58.18162789618869]
フェデレートラーニング(FL)は、モデルを分散的にトレーニングするための広く使われているフレームワークである。
我々はFedRandフレームワークを提案し、クライアントパラメータの完全な集合を開示するのを避ける。
我々はFedRandがMIAに対するロバスト性を改善することを、関連するベースラインと比較して実証的に検証する。
論文 参考訳(メタデータ) (2025-03-10T11:55:50Z) - Harmless Backdoor-based Client-side Watermarking in Federated Learning [4.999947975898418]
Sanitizerはサーバサイドのメソッドで、クライアントに埋め込まれたバックドアが無害な環境でのみアクティベートされることを保証する。
悪意のある透かしの使用のリスクを軽減しつつ、クライアントのコントリビューションを検証するのにほぼ完璧です。
論文 参考訳(メタデータ) (2024-10-28T16:20:01Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - FLVoogd: Robust And Privacy Preserving Federated Learning [12.568409209047505]
プライバシを保護しながら,サーバとクライアントが共同でビザンチン攻撃を除去する,新たなフェデレート学習手法であるoogdを提案する。
サーバは、S2PCと組み合わされたDBSCAN(Spatial Clustering of Applications)の自動密度ベースの空間クラスタリングを使用して、機密性の高い個人情報を取得せずに、良質な多数派をクラスタリングする。
私たちのフレームワークは自動で適応的なので、サーバ/クライアントはトレーニング中にパラメータをチューニングする必要がありません。
論文 参考訳(メタデータ) (2022-06-24T08:48:15Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。