論文の概要: Collaborative Threshold Watermarking
- arxiv url: http://arxiv.org/abs/2602.10765v1
- Date: Wed, 11 Feb 2026 11:51:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.843034
- Title: Collaborative Threshold Watermarking
- Title(参考訳): 協調型閾値透かし
- Authors: Tameem Bakr, Anish Ambreth, Nils Lukas,
- Abstract要約: FL(Federated Learning)では、K$クライアントが生データを共有せずにモデルを共同でトレーニングする。
モデル透かしは重みに隠されたシグナルを埋め込むが、素直なアプローチでは、クライアント毎の透かしはK$が成長するほど希薄になるため、多くのクライアントでスケールしない。
クライアントがトレーニング中に共有された透かしを共同で埋め込むのに対して、最低でも$t$のクライアントだけが透かしキーを再構築し、疑わしいモデルを検証できます。
- 参考スコア(独自算出の注目度): 6.09006146869448
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In federated learning (FL), $K$ clients jointly train a model without sharing raw data. Because each participant invests data and compute, clients need mechanisms to later prove the provenance of a jointly trained model. Model watermarking embeds a hidden signal in the weights, but naive approaches either do not scale with many clients as per-client watermarks dilute as $K$ grows, or give any individual client the ability to verify and potentially remove the watermark. We introduce $(t,K)$-threshold watermarking: clients collaboratively embed a shared watermark during training, while only coalitions of at least $t$ clients can reconstruct the watermark key and verify a suspect model. We secret-share the watermark key $τ$ so that coalitions of fewer than $t$ clients cannot reconstruct it, and verification can be performed without revealing $τ$ in the clear. We instantiate our protocol in the white-box setting and evaluate on image classification. Our watermark remains detectable at scale ($K=128$) with minimal accuracy loss and stays above the detection threshold ($z\ge 4$) under attacks including adaptive fine-tuning using up to 20% of the training data.
- Abstract(参考訳): FL(Federated Learning)では、K$クライアントが生データを共有せずにモデルを共同でトレーニングする。
各参加者はデータと計算に投資するので、クライアントは後に共同でトレーニングされたモデルの有効性を証明するメカニズムを必要とします。
モデル透かしは重みに隠されたシグナルを埋め込むが、素直なアプローチは、クライアント毎の透かしが成長するにつれて希薄になるように、多くのクライアントとスケールしないか、個々のクライアントに透かしを検証し、潜在的に除去する能力を与える。
クライアントがトレーニング中に共有された透かしを共同で埋め込むのに対して、最低でも$t$のクライアントだけが透かしキーを再構築し、疑わしいモデルを検証できます。
ウォーターマークキーの$τ$を秘密にしているので、$t$未満のクライアントの連立は、それを再構築することができません。
我々は,このプロトコルをホワイトボックス設定でインスタンス化し,画像分類に基づいて評価する。
私たちの透かしは、最小限の精度の損失でスケール(K=128$)で検出可能であり、トレーニングデータの最大20%を使用して、適応的な微調整を含む攻撃下では、検出しきい値(z\ge 4$)を超えます。
関連論文リスト
- Robust Client-Server Watermarking for Split Federated Learning [14.772619626732892]
Split Federated Learning (SFL)は、プライバシー保護の性質と計算オーバーヘッドの低さで有名である。
本稿では,SFL用クライアントサーバ透かし埋め込みを用いたロバストモデル知的財産保護スキームRISEを提案する。
論文 参考訳(メタデータ) (2025-11-17T16:58:33Z) - Mitigating Watermark Forgery in Generative Models via Randomized Key Selection [33.12939822735328]
主要なセキュリティ脅威は、敵がプロバイダの透かしをコンテンツに挿入する偽造攻撃である。
既存の防御は、複数のキーを持つ多くの透かしを同じコンテンツに埋め込むことによって偽造に抵抗する。
本稿では,攻撃者が収集した透かし付きコンテンツの数に対して,確実に偽造に抵抗する防御法を提案する。
論文 参考訳(メタデータ) (2025-07-10T15:52:32Z) - Traceable Black-box Watermarks for Federated Learning [11.826762642822219]
この研究は、追跡可能なブラックボックスの透かしをフェデレートラーニングシステムに注入する問題を定式化する。
本稿では,サーバ側の新しい透かし方式である$mathbfTraMark$を提案し,各クライアントに対してトレース可能な透かしモデルを作成する。
その結果、$mathbfTraMark$は、主要なタスクパフォーマンスを維持しながら、すべてのウォーターマークされたモデルのトレーサビリティを保証する。
論文 参考訳(メタデータ) (2025-05-19T18:49:31Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - Robust Distortion-free Watermarks for Language Models [85.55407177530746]
本稿では,自動回帰言語モデルからテキストに透かしを植え付ける手法を提案する。
言語モデルから乱数列をサンプルにマッピングすることで、透かし付きテキストを生成する。
論文 参考訳(メタデータ) (2023-07-28T14:52:08Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - A Watermark for Large Language Models [84.95327142027183]
本稿では,プロプライエタリな言語モデルのための透かしフレームワークを提案する。
透かしはテキストの品質に無視できない影響で埋め込むことができる。
言語モデルAPIやパラメータにアクセスすることなく、効率的なオープンソースアルゴリズムを使って検出することができる。
論文 参考訳(メタデータ) (2023-01-24T18:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。