論文の概要: FLClear: Visually Verifiable Multi-Client Watermarking for Federated Learning
- arxiv url: http://arxiv.org/abs/2511.12663v1
- Date: Sun, 16 Nov 2025 15:59:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.433763
- Title: FLClear: Visually Verifiable Multi-Client Watermarking for Federated Learning
- Title(参考訳): FLClear:フェデレーションラーニングのための視覚的に検証可能なマルチクライアント透かし
- Authors: Chen Gu, Yingying Sun, Yifan She, Donghui Hu,
- Abstract要約: フェデレートラーニング(FL)は、複数のクライアントが共同で共有グローバルモデルをトレーニングすることを可能にする。
このパラダイムの中では、クライアントモデルの知的財産権(IPR)は保護されなければならない重要な資産である。
本研究では,衝突のない透かしアグリゲーション,透かしセキュリティの強化,および視覚的に解釈可能なオーナシップ検証を実現する新しいフレームワークであるFLClearを提案する。
- 参考スコア(独自算出の注目度): 5.769453013343764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables multiple clients to collaboratively train a shared global model while preserving the privacy of their local data. Within this paradigm, the intellectual property rights (IPR) of client models are critical assets that must be protected. In practice, the central server responsible for maintaining the global model may maliciously manipulate the global model to erase client contributions or falsely claim sole ownership, thereby infringing on clients' IPR. Watermarking has emerged as a promising technique for asserting model ownership and protecting intellectual property. However, existing FL watermarking approaches remain limited, suffering from potential watermark collisions among clients, insufficient watermark security, and non-intuitive verification mechanisms. In this paper, we propose FLClear, a novel framework that simultaneously achieves collision-free watermark aggregation, enhanced watermark security, and visually interpretable ownership verification. Specifically, FLClear introduces a transposed model jointly optimized with contrastive learning to integrate the watermarking and main task objectives. During verification, the watermark is reconstructed from the transposed model and evaluated through both visual inspection and structural similarity metrics, enabling intuitive and quantitative ownership verification. Comprehensive experiments conducted over various datasets, aggregation schemes, and attack scenarios demonstrate the effectiveness of FLClear and confirm that it consistently outperforms state-of-the-art FL watermarking methods.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のクライアントが、ローカルデータのプライバシを保持しながら、共有グローバルモデルを共同でトレーニングすることを可能にする。
このパラダイムの中では、クライアントモデルの知的財産権(IPR)は保護されなければならない重要な資産である。
実際には、グローバルモデルを維持する責任のある中央サーバは、不正にグローバルモデルを操作して、クライアントのコントリビューションを消去したり、単独のオーナシップを誤って主張したりすることで、クライアントのIPPを侵害する可能性がある。
ウォーターマーキングは、モデルの所有権を主張し、知的財産を保護するための有望な手法として登場した。
しかし、既存のFL透かしアプローチは、クライアント間の潜在的な透かし衝突、透かしセキュリティの不十分、直観的でない検証メカニズムに悩まされている。
本稿では,衝突のない透かしアグリゲーション,透かしセキュリティの強化,および視覚的に解釈可能なオーナシップ検証を同時に実現する新しいフレームワークであるFLClearを提案する。
特にFLClearは、ウォーターマークとメインタスクの目的を統合するために、コントラスト学習に最適化されたトランスポーズモデルを導入している。
検証中、透かしは変換されたモデルから再構成され、視覚検査と構造的類似度メトリクスの両方を通して評価され、直感的かつ定量的なオーナシップ検証を可能にする。
様々なデータセット、アグリゲーションスキーム、アタックシナリオで実施された総合的な実験は、FLClearの有効性を示し、最先端のFL透かし法を一貫して上回っていることを確認した。
関連論文リスト
- SWAP: Towards Copyright Auditing of Soft Prompts via Sequential Watermarking [58.475471437150674]
ソフトプロンプト(SWAP)のための逐次透かしを提案する。
SWAPは、特定のディフェンダー指定のアウト・オブ・ディストリビューション・クラスを通じて、透かしを符号化する。
11のデータセットの実験では、SWAPの有効性、無害性、および潜在的適応攻撃に対する堅牢性を示す。
論文 参考訳(メタデータ) (2025-11-05T13:48:48Z) - StableGuard: Towards Unified Copyright Protection and Tamper Localization in Latent Diffusion Models [55.05404953041403]
拡散生成プロセスにバイナリ透かしをシームレスに統合する新しいフレームワークを提案する。
画像の忠実さ、透かしの検証、ローカライゼーションの改ざんにおいて、StableGuardは一貫して最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2025-09-22T16:35:19Z) - RobWE: Robust Watermark Embedding for Personalized Federated Learning
Model Ownership Protection [29.48484160966728]
本稿では,PFLにおけるパーソナライズされたモデルの所有権を保護するために,RobWEという名前の堅牢な透かし埋め込み方式を提案する。
まず、パーソナライズされたモデルの透かしを、ヘッド層埋め込みと表現層埋め込みという2つの部分に分割する。
表現層埋め込みには透かしスライス埋め込み操作を用い,透かしの埋め込み競合を回避する。
論文 参考訳(メタデータ) (2024-02-29T11:31:50Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedTracker: Furnishing Ownership Verification and Traceability for
Federated Learning Model [33.03362469978148]
Federated Learning(FL)は、複数のクライアントがローカルデータを共有せずにグローバルモデルを共同でトレーニングできる分散機械学習パラダイムである。
これにより、悪意のあるクライアントによる不正なモデル配布や再販のリスクが生じ、FLグループの知的財産権が損なわれる。
オーナシップ検証とトレーサビリティの両方を提供する最初のFLモデル保護フレームワークであるFedTrackerを紹介します。
論文 参考訳(メタデータ) (2022-11-14T07:40:35Z) - Watermarking in Secure Federated Learning: A Verification Framework
Based on Client-Side Backdooring [13.936013200707508]
フェデレートラーニング(FL)は、複数の参加者が直接データを共有することなく、協調してディープラーニング(DL)モデルを構築することを可能にする。
FLにおける著作権保護の問題が重要になるのは、信頼できない参加者が共同で訓練されたモデルにアクセスできるようになるためである。
本稿では,HE を用いたセキュアFLにおける著作権保護問題に対処するためのクライアント側 FL 透かし方式を提案する。
論文 参考訳(メタデータ) (2022-11-14T06:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。