論文の概要: RobWE: Robust Watermark Embedding for Personalized Federated Learning
Model Ownership Protection
- arxiv url: http://arxiv.org/abs/2402.19054v1
- Date: Thu, 29 Feb 2024 11:31:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 15:15:30.062997
- Title: RobWE: Robust Watermark Embedding for Personalized Federated Learning
Model Ownership Protection
- Title(参考訳): robwe: パーソナライズされた連合学習モデルオーナシップ保護のための堅牢なウォーターマーク埋め込み
- Authors: Yang Xu, Yunlin Tan, Cheng Zhang, Kai Chi, Peng Sun, Wenyuan Yang, Ju
Ren, Hongbo Jiang, Yaoxue Zhang
- Abstract要約: 本稿では,PFLにおけるパーソナライズされたモデルの所有権を保護するために,RobWEという名前の堅牢な透かし埋め込み方式を提案する。
まず、パーソナライズされたモデルの透かしを、ヘッド層埋め込みと表現層埋め込みという2つの部分に分割する。
表現層埋め込みには透かしスライス埋め込み操作を用い,透かしの埋め込み競合を回避する。
- 参考スコア(独自算出の注目度): 29.48484160966728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Embedding watermarks into models has been widely used to protect model
ownership in federated learning (FL). However, existing methods are inadequate
for protecting the ownership of personalized models acquired by clients in
personalized FL (PFL). This is due to the aggregation of the global model in
PFL, resulting in conflicts over clients' private watermarks. Moreover,
malicious clients may tamper with embedded watermarks to facilitate model
leakage and evade accountability. This paper presents a robust watermark
embedding scheme, named RobWE, to protect the ownership of personalized models
in PFL. We first decouple the watermark embedding of personalized models into
two parts: head layer embedding and representation layer embedding. The head
layer belongs to clients' private part without participating in model
aggregation, while the representation layer is the shared part for aggregation.
For representation layer embedding, we employ a watermark slice embedding
operation, which avoids watermark embedding conflicts. Furthermore, we design a
malicious watermark detection scheme enabling the server to verify the
correctness of watermarks before aggregating local models. We conduct an
exhaustive experimental evaluation of RobWE. The results demonstrate that RobWE
significantly outperforms the state-of-the-art watermark embedding schemes in
FL in terms of fidelity, reliability, and robustness.
- Abstract(参考訳): モデルへの透かしの埋め込みは、連合学習(fl)におけるモデルの所有権を保護するために広く使われている。
しかし、既存の手法は、パーソナライズされたFL(PFL)においてクライアントが取得したパーソナライズされたモデルの所有権を保護するには不十分である。
これは、PFLのグローバルモデルが集約されたためであり、結果としてクライアントのプライベートな透かしと衝突した。
さらに、悪意のあるクライアントは、埋め込みの透かしを改ざんして、モデルの漏洩と説明責任を回避することができる。
本稿では,pflにおけるパーソナライズドモデルの所有権を保護するため,robweという堅牢な透かし埋め込み方式を提案する。
まず、パーソナライズされたモデルの透かしを、ヘッド層埋め込みと表現層埋め込みという2つの部分に分割する。
ヘッド層は、モデルアグリゲーションに参加せずにクライアントのプライベート部分に属し、表現層はアグリゲーションのための共有部分である。
表象層埋め込みでは、ウォーターマークの埋め込み競合を避けるために、ウォーターマークスライス埋め込み操作を用いる。
さらに,ローカルモデルを集約する前に,サーバが透かしの正しさを検証できる悪意のある透かし検出方式を設計する。
我々はRobWEの徹底的な実験評価を行う。
以上の結果から,RobWE は FL における最新の透かし埋め込み方式よりも忠実性,信頼性,堅牢性において優れていた。
関連論文リスト
- AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - A Watermark-Conditioned Diffusion Model for IP Protection [31.969286898467985]
拡散モデルにおけるコンテンツ著作権保護のための統一的な透かしフレームワークを提案する。
そこで我々はWaDiffと呼ばれるWadmark条件付き拡散モデルを提案する。
本手法は,検出タスクと所有者識別タスクの両方において有効かつ堅牢である。
論文 参考訳(メタデータ) (2024-03-16T11:08:15Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - Unbiased Watermark for Large Language Models [67.43415395591221]
本研究では, モデル生成出力の品質に及ぼす透かしの影響について検討した。
出力確率分布に影響を与えることなく、透かしを統合することができる。
ウォーターマークの存在は、下流タスクにおけるモデルの性能を損なうものではない。
論文 参考訳(メタデータ) (2023-09-22T12:46:38Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - FedTracker: Furnishing Ownership Verification and Traceability for
Federated Learning Model [33.03362469978148]
Federated Learning(FL)は、複数のクライアントがローカルデータを共有せずにグローバルモデルを共同でトレーニングできる分散機械学習パラダイムである。
これにより、悪意のあるクライアントによる不正なモデル配布や再販のリスクが生じ、FLグループの知的財産権が損なわれる。
オーナシップ検証とトレーサビリティの両方を提供する最初のFLモデル保護フレームワークであるFedTrackerを紹介します。
論文 参考訳(メタデータ) (2022-11-14T07:40:35Z) - Watermarking in Secure Federated Learning: A Verification Framework
Based on Client-Side Backdooring [13.936013200707508]
フェデレートラーニング(FL)は、複数の参加者が直接データを共有することなく、協調してディープラーニング(DL)モデルを構築することを可能にする。
FLにおける著作権保護の問題が重要になるのは、信頼できない参加者が共同で訓練されたモデルにアクセスできるようになるためである。
本稿では,HE を用いたセキュアFLにおける著作権保護問題に対処するためのクライアント側 FL 透かし方式を提案する。
論文 参考訳(メタデータ) (2022-11-14T06:37:01Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。