論文の概要: Sigil: Server-Enforced Watermarking in U-Shaped Split Federated Learning via Gradient Injection
- arxiv url: http://arxiv.org/abs/2511.14422v1
- Date: Tue, 18 Nov 2025 12:27:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.102082
- Title: Sigil: Server-Enforced Watermarking in U-Shaped Split Federated Learning via Gradient Injection
- Title(参考訳): Sigil: グラディエントインジェクションによるU字型分散学習におけるサーバ強化透かし
- Authors: Zhengchunmin Dai, Jiaxiong Tang, Peng Sun, Honglong Chen, Liantao Wu,
- Abstract要約: 本稿では,機能限定サーバのための強制的な透かしフレームワークであるSigilを提案する。
Sigilはデータに関する知識を必要とせずに、勾配注入を通じてクライアントモデルに透かしを埋め込む。
複数のデータセットとモデルに関する大規模な実験は、Sigilの忠実さ、堅牢性、ステルス性を示している。
- 参考スコア(独自算出の注目度): 12.40971266656093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In decentralized machine learning paradigms such as Split Federated Learning (SFL) and its variant U-shaped SFL, the server's capabilities are severely restricted. Although this enhances client-side privacy, it also leaves the server highly vulnerable to model theft by malicious clients. Ensuring intellectual property protection for such capability-limited servers presents a dual challenge: watermarking schemes that depend on client cooperation are unreliable in adversarial settings, whereas traditional server-side watermarking schemes are technically infeasible because the server lacks access to critical elements such as model parameters or labels. To address this challenge, this paper proposes Sigil, a mandatory watermarking framework designed specifically for capability-limited servers. Sigil defines the watermark as a statistical constraint on the server-visible activation space and embeds the watermark into the client model via gradient injection, without requiring any knowledge of the data. Besides, we design an adaptive gradient clipping mechanism to ensure that our watermarking process remains both mandatory and stealthy, effectively countering existing gradient anomaly detection methods and a specifically designed adaptive subspace removal attack. Extensive experiments on multiple datasets and models demonstrate Sigil's fidelity, robustness, and stealthiness.
- Abstract(参考訳): Split Federated Learning(SFL)のような分散機械学習パラダイムや、その変種であるU字型SFLでは、サーバの能力は厳しく制限されている。
これによりクライアント側のプライバシが向上するが、悪意のあるクライアントによるモデル盗難に対して、サーバは極めて脆弱である。
クライアントの協力に依存する透かしスキームは、敵の設定では信頼できないが、従来のサーバ側の透かしスキームは、モデルパラメータやラベルのような重要な要素にアクセスできないため、技術的には実現不可能である。
この課題に対処するため,本論文では,機能限定サーバ用に設計された強制的な透かしフレームワークであるSigilを提案する。
Sigil氏は、透かしを、サーバ可視のアクティベーション空間の統計的制約として定義し、データに関する知識を必要とせずに、勾配注入を通じてクライアントモデルに埋め込む。
また,従来の勾配異常検出手法と適応部分空間除去攻撃を効果的に回避し,透かし処理が必須かつステルス的であり続けるように適応勾配クリッピング機構を設計する。
複数のデータセットとモデルに関する大規模な実験は、Sigilの忠実さ、堅牢性、ステルス性を示している。
関連論文リスト
- Robust Client-Server Watermarking for Split Federated Learning [14.772619626732892]
Split Federated Learning (SFL)は、プライバシー保護の性質と計算オーバーヘッドの低さで有名である。
本稿では,SFL用クライアントサーバ透かし埋め込みを用いたロバストモデル知的財産保護スキームRISEを提案する。
論文 参考訳(メタデータ) (2025-11-17T16:58:33Z) - SWAP: Towards Copyright Auditing of Soft Prompts via Sequential Watermarking [58.475471437150674]
ソフトプロンプト(SWAP)のための逐次透かしを提案する。
SWAPは、特定のディフェンダー指定のアウト・オブ・ディストリビューション・クラスを通じて、透かしを符号化する。
11のデータセットの実験では、SWAPの有効性、無害性、および潜在的適応攻撃に対する堅牢性を示す。
論文 参考訳(メタデータ) (2025-11-05T13:48:48Z) - Hot-Swap MarkBoard: An Efficient Black-box Watermarking Approach for Large-scale Model Distribution [14.60627694687767]
本稿では,効率的な透かし手法であるHot-Swap MarkBoardを提案する。
ユーザ固有の$n$-bitバイナリシグネチャを、独立して複数の透かしを埋め込むことでエンコードする。
この方法はブラックボックス検証をサポートし、様々なモデルアーキテクチャと互換性がある。
論文 参考訳(メタデータ) (2025-07-28T09:14:21Z) - Harmless Backdoor-based Client-side Watermarking in Federated Learning [4.999947975898418]
Sanitizerはサーバサイドのメソッドで、クライアントに埋め込まれたバックドアが無害な環境でのみアクティベートされることを保証する。
悪意のある透かしの使用のリスクを軽減しつつ、クライアントのコントリビューションを検証するのにほぼ完璧です。
論文 参考訳(メタデータ) (2024-10-28T16:20:01Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Watermarking in Secure Federated Learning: A Verification Framework
Based on Client-Side Backdooring [13.936013200707508]
フェデレートラーニング(FL)は、複数の参加者が直接データを共有することなく、協調してディープラーニング(DL)モデルを構築することを可能にする。
FLにおける著作権保護の問題が重要になるのは、信頼できない参加者が共同で訓練されたモデルにアクセスできるようになるためである。
本稿では,HE を用いたセキュアFLにおける著作権保護問題に対処するためのクライアント側 FL 透かし方式を提案する。
論文 参考訳(メタデータ) (2022-11-14T06:37:01Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。