論文の概要: Traceable Black-box Watermarks for Federated Learning
- arxiv url: http://arxiv.org/abs/2505.13651v1
- Date: Mon, 19 May 2025 18:49:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.48553
- Title: Traceable Black-box Watermarks for Federated Learning
- Title(参考訳): フェデレート学習のためのトレース可能なブラックボックス透かし
- Authors: Jiahao Xu, Rui Hu, Olivera Kotevska, Zikai Zhang,
- Abstract要約: この研究は、追跡可能なブラックボックスの透かしをフェデレートラーニングシステムに注入する問題を定式化する。
本稿では,サーバ側の新しい透かし方式である$mathbfTraMark$を提案し,各クライアントに対してトレース可能な透かしモデルを作成する。
その結果、$mathbfTraMark$は、主要なタスクパフォーマンスを維持しながら、すべてのウォーターマークされたモデルのトレーサビリティを保証する。
- 参考スコア(独自算出の注目度): 7.810361153296275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the distributed nature of Federated Learning (FL) systems, each local client has access to the global model, posing a critical risk of model leakage. Existing works have explored injecting watermarks into local models to enable intellectual property protection. However, these methods either focus on non-traceable watermarks or traceable but white-box watermarks. We identify a gap in the literature regarding the formal definition of traceable black-box watermarking and the formulation of the problem of injecting such watermarks into FL systems. In this work, we first formalize the problem of injecting traceable black-box watermarks into FL. Based on the problem, we propose a novel server-side watermarking method, $\mathbf{TraMark}$, which creates a traceable watermarked model for each client, enabling verification of model leakage in black-box settings. To achieve this, $\mathbf{TraMark}$ partitions the model parameter space into two distinct regions: the main task region and the watermarking region. Subsequently, a personalized global model is constructed for each client by aggregating only the main task region while preserving the watermarking region. Each model then learns a unique watermark exclusively within the watermarking region using a distinct watermark dataset before being sent back to the local client. Extensive results across various FL systems demonstrate that $\mathbf{TraMark}$ ensures the traceability of all watermarked models while preserving their main task performance.
- Abstract(参考訳): フェデレートラーニング(FL)システムの分散特性のため、各ローカルクライアントはグローバルモデルにアクセスでき、モデル漏洩の重大なリスクを負う。
既存の研究は、知的財産保護を可能にするため、地元のモデルに透かしを注入することを模索してきた。
しかし、これらの手法は追跡不能な透かしや追跡可能だがホワイトボックスの透かしに焦点を当てている。
我々は,トレーサブルブラックボックス透かしの形式的定義と,そのような透かしをFL系に注入する問題の定式化に関する文献のギャップを同定する。
本研究では,まず,トレーサブルなブラックボックス透かしをFLに注入する問題を定式化する。
そこで本研究では,サーバ側の新しい透かし方式である$\mathbf{TraMark}$を提案し,各クライアントに対してトレース可能な透かしモデルを作成し,ブラックボックス設定でのモデル漏洩の検証を可能にする。
これを達成するために、$\mathbf{TraMark}$はモデルパラメータ空間をメインタスク領域とウォーターマーキング領域の2つの異なる領域に分割する。
その後、ウォーターマーキング領域を保存しながらメインタスク領域のみを集約することにより、各クライアントに対してパーソナライズされたグローバルモデルを構築する。
各モデルは、ローカルクライアントに送信する前に、独自の透かしデータセットを使用して、透かし領域内で独自の透かしを学習する。
さまざまなFLシステムにわたる大規模な結果から、$\mathbf{TraMark}$は、主要なタスク性能を維持しながら、すべてのウォーターマークされたモデルのトレーサビリティを保証する。
関連論文リスト
- De-mark: Watermark Removal in Large Language Models [59.00698153097887]
我々は、n-gramベースの透かしを効果的に除去するために設計された高度なフレームワークであるDe-markを紹介する。
提案手法は,透かしの強度を評価するために,ランダム選択探索と呼ばれる新しいクエリ手法を利用する。
論文 参考訳(メタデータ) (2024-10-17T17:42:10Z) - TokenMark: A Modality-Agnostic Watermark for Pre-trained Transformers [67.57928750537185]
TokenMarkは、事前訓練されたモデルに対する頑健で、モダリティに依存しない、堅牢な透かしシステムである。
予めトレーニングされたモデルを、特別に置換されたデータサンプルのセットに微調整することで、透かしを埋め込む。
これはモデル透かしの堅牢性、効率、普遍性を著しく改善する。
論文 参考訳(メタデータ) (2024-03-09T08:54:52Z) - Mesh Watermark Removal Attack and Mitigation: A Novel Perspective of Function Space [26.32029980489992]
Mesh Watermarkは、シークレットメッセージを3Dメッシュに埋め込んで、ウォーターマークされたメッシュからメッセージをデコードして、オーナシップ検証を行う。
FuncEvadeは、透かしメッシュの符号付き距離関数からそれを抽出することで、透かしメッシュの異なる離散表現を生成する。
FuncMarkはメッセージ誘導変形によって符号付き距離関数を透かし、funcEvadeを緩和する。
論文 参考訳(メタデータ) (2023-11-18T16:14:08Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Unbiased Watermark for Large Language Models [67.43415395591221]
本研究では, モデル生成出力の品質に及ぼす透かしの影響について検討した。
出力確率分布に影響を与えることなく、透かしを統合することができる。
ウォーターマークの存在は、下流タスクにおけるモデルの性能を損なうものではない。
論文 参考訳(メタデータ) (2023-09-22T12:46:38Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。