論文の概要: Watermarking in Secure Federated Learning: A Verification Framework
Based on Client-Side Backdooring
- arxiv url: http://arxiv.org/abs/2211.07138v1
- Date: Mon, 14 Nov 2022 06:37:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 17:05:17.048495
- Title: Watermarking in Secure Federated Learning: A Verification Framework
Based on Client-Side Backdooring
- Title(参考訳): セキュアなフェデレーション学習におけるウォーターマーキング:クライアントサイドバックドアに基づく検証フレームワーク
- Authors: Wenyuan Yang, Shuo Shao, Yue Yang, Xiyao Liu, Zhihua Xia, Gerald
Schaefer and Hui Fang
- Abstract要約: フェデレートラーニング(FL)は、複数の参加者が直接データを共有することなく、協調してディープラーニング(DL)モデルを構築することを可能にする。
FLにおける著作権保護の問題が重要になるのは、信頼できない参加者が共同で訓練されたモデルにアクセスできるようになるためである。
本稿では,HE を用いたセキュアFLにおける著作権保護問題に対処するためのクライアント側 FL 透かし方式を提案する。
- 参考スコア(独自算出の注目度): 13.936013200707508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) allows multiple participants to collaboratively build
deep learning (DL) models without directly sharing data. Consequently, the
issue of copyright protection in FL becomes important since unreliable
participants may gain access to the jointly trained model. Application of
homomorphic encryption (HE) in secure FL framework prevents the central server
from accessing plaintext models. Thus, it is no longer feasible to embed the
watermark at the central server using existing watermarking schemes. In this
paper, we propose a novel client-side FL watermarking scheme to tackle the
copyright protection issue in secure FL with HE. To our best knowledge, it is
the first scheme to embed the watermark to models under the Secure FL
environment. We design a black-box watermarking scheme based on client-side
backdooring to embed a pre-designed trigger set into an FL model by a
gradient-enhanced embedding method. Additionally, we propose a trigger set
construction mechanism to ensure the watermark cannot be forged. Experimental
results demonstrate that our proposed scheme delivers outstanding protection
performance and robustness against various watermark removal attacks and
ambiguity attack.
- Abstract(参考訳): フェデレーション学習(fl)は、複数の参加者がデータを直接共有することなく、共同してディープラーニング(dl)モデルを構築することができる。
したがって、信頼できない参加者が共同で訓練されたモデルにアクセスできる可能性があるため、flにおける著作権保護の問題は重要となる。
セキュアFLフレームワークへの同型暗号化(HE)の適用により、中央サーバが平文モデルにアクセスできなくなる。
したがって、既存の透かしスキームを使用して中央サーバに透かしを埋め込むことはもはや不可能である。
本稿では,secure flにおける著作権保護問題に取り組むために,新しいクライアント側fl透かし方式を提案する。
我々の知る限りでは、Secure FL環境下でモデルに透かしを埋め込む最初のスキームである。
我々は,クライアント側バックドアに基づくブラックボックス透かしスキームの設計を行い,グラデーションエンハンスド埋め込み手法を用いてflモデルに予め設計したトリガーセットを組み込む。
さらに,ウォーターマークの偽造を防止するためのトリガーセット構築機構を提案する。
実験の結果,提案手法は様々な透かし除去攻撃や曖昧性攻撃に対して優れた保護性能と頑健性をもたらすことがわかった。
関連論文リスト
- ESpeW: Robust Copyright Protection for LLM-based EaaS via Embedding-Specific Watermark [50.08021440235581]
組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の緊急の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
論文 参考訳(メタデータ) (2024-10-23T04:34:49Z) - AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - DIP-Watermark: A Double Identity Protection Method Based on Robust Adversarial Watermark [13.007649270429493]
顔認識(FR)システムはプライバシーのリスクを引き起こす。
1つの対策は敵攻撃であり、不正な悪意のあるFRを欺くことである。
トレース可能な対角線透かしに基づく最初の二重識別保護方式を提案する。
論文 参考訳(メタデータ) (2024-04-23T02:50:38Z) - DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - RobWE: Robust Watermark Embedding for Personalized Federated Learning
Model Ownership Protection [29.48484160966728]
本稿では,PFLにおけるパーソナライズされたモデルの所有権を保護するために,RobWEという名前の堅牢な透かし埋め込み方式を提案する。
まず、パーソナライズされたモデルの透かしを、ヘッド層埋め込みと表現層埋め込みという2つの部分に分割する。
表現層埋め込みには透かしスライス埋め込み操作を用い,透かしの埋め込み競合を回避する。
論文 参考訳(メタデータ) (2024-02-29T11:31:50Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - FedTracker: Furnishing Ownership Verification and Traceability for
Federated Learning Model [33.03362469978148]
Federated Learning(FL)は、複数のクライアントがローカルデータを共有せずにグローバルモデルを共同でトレーニングできる分散機械学習パラダイムである。
これにより、悪意のあるクライアントによる不正なモデル配布や再販のリスクが生じ、FLグループの知的財産権が損なわれる。
オーナシップ検証とトレーサビリティの両方を提供する最初のFLモデル保護フレームワークであるFedTrackerを紹介します。
論文 参考訳(メタデータ) (2022-11-14T07:40:35Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。