論文の概要: FedTracker: Furnishing Ownership Verification and Traceability for
Federated Learning Model
- arxiv url: http://arxiv.org/abs/2211.07160v1
- Date: Mon, 14 Nov 2022 07:40:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 17:04:57.333246
- Title: FedTracker: Furnishing Ownership Verification and Traceability for
Federated Learning Model
- Title(参考訳): FedTracker: フェデレーション学習モデルのオーナシップ検証とトレーサビリティ向上
- Authors: Shuo Shao, Wenyuan Yang, Hanlin Gu, Jian Lou, Zhan Qin, Lixin Fan,
Qiang Yang and Kui Ren
- Abstract要約: FedTrackerは、グローバルモデルのオーナシップを検証するためにグローバルな透かしを使用する、最初のFLモデル保護フレームワークである。
一方、独自のローカル指紋を各ローカルモデルに埋め込んで、モデルから犯人への追跡を容易にする。
実験の結果,提案するFedTrackerはオーナシップ検証,トレーサビリティ,忠実度,堅牢性に有効であることがわかった。
- 参考スコア(独自算出の注目度): 37.001475314298695
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Copyright protection of the Federated Learning (FL) model has become a major
concern since malicious clients in FL can stealthily distribute or sell the FL
model to other parties. In order to prevent such misbehavior, one must be able
to catch the culprit by investigating trace evidence from the model in
question. In this paper, we propose FedTracker, the first FL model protection
framework that, on one hand, employs global watermarks to verify ownerships of
the global model; and on the other hand, embed unique local fingerprints into
respective local models to facilitate tracing the model back to the culprit.
Furthermore, FedTracker introduces the intuition of Continual Learning (CL)
into watermark embedding, and proposes a CL-based watermark mechanism to
improve fidelity. Experimental results show that the proposed FedTracker is
effective in ownership verification, traceability, fidelity, and robustness.
- Abstract(参考訳): FL(Federated Learning)モデルの著作権保護は、FLの悪意あるクライアントが極秘にFLモデルを他の当事者に配布または販売できるため、大きな関心事となっている。
このような不正行為を防止するためには、問題のモデルからの痕跡証拠を調査して犯人を捕まえる必要がある。
本稿では,グローバルモデルの所有権を検証するために,グローバルウォーターマークを用いた最初のflモデル保護フレームワークであるfeedtrackerを提案する。
さらに、FedTrackerは、透かし埋め込みに連続学習(CL)の直感を導入し、忠実度を改善するためのCLベースの透かし機構を提案する。
実験の結果,提案するFedTrackerはオーナシップ検証,トレーサビリティ,忠実度,堅牢性に有効であることがわかった。
関連論文リスト
- RobWE: Robust Watermark Embedding for Personalized Federated Learning
Model Ownership Protection [29.48484160966728]
本稿では,PFLにおけるパーソナライズされたモデルの所有権を保護するために,RobWEという名前の堅牢な透かし埋め込み方式を提案する。
まず、パーソナライズされたモデルの透かしを、ヘッド層埋め込みと表現層埋め込みという2つの部分に分割する。
表現層埋め込みには透かしスライス埋め込み操作を用い,透かしの埋め込み競合を回避する。
論文 参考訳(メタデータ) (2024-02-29T11:31:50Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - Secure Decentralized Learning with Blockchain [13.795131629462798]
Federated Learning(FL)は、モバイルとIoTデバイスにおける分散機械学習のパラダイムとしてよく知られている。
FLにおける単一障害点問題を回避するため、分散学習(DFL)がモデル集約にピアツーピア通信を使用することが提案されている。
論文 参考訳(メタデータ) (2023-10-10T23:45:17Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - FedSOV: Federated Model Secure Ownership Verification with Unforgeable
Signature [60.99054146321459]
フェデレートラーニングにより、複数のパーティがプライベートデータを公開せずにグローバルモデルを学ぶことができる。
本稿では,FedSOVという暗号署名に基づくフェデレート学習モデルのオーナシップ検証手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T12:10:02Z) - FedRight: An Effective Model Copyright Protection for Federated Learning [3.387494280613737]
フェデレートラーニング(FL)はモデルトレーニングを実装し、一方でローカルデータのプライバシを保護する。
FLの著作権保護の問題を初めて定式化した。
我々はモデル指紋に基づくモデル著作権を保護するためにFedRightを提案する。
論文 参考訳(メタデータ) (2023-03-18T11:47:54Z) - Watermarking in Secure Federated Learning: A Verification Framework
Based on Client-Side Backdooring [13.936013200707508]
フェデレートラーニング(FL)は、複数の参加者が直接データを共有することなく、協調してディープラーニング(DL)モデルを構築することを可能にする。
FLにおける著作権保護の問題が重要になるのは、信頼できない参加者が共同で訓練されたモデルにアクセスできるようになるためである。
本稿では,HE を用いたセキュアFLにおける著作権保護問題に対処するためのクライアント側 FL 透かし方式を提案する。
論文 参考訳(メタデータ) (2022-11-14T06:37:01Z) - VeriFi: Towards Verifiable Federated Unlearning [59.169431326438676]
フェデレートラーニング(FL)は、参加者がプライベートデータを共有せずに強力なモデルを共同でトレーニングする、協調学習パラダイムである。
参加者を去るには、グローバルモデルからプライベートデータを削除するよう要求する権利がある。
フェデレートされた未学習と検証を統合した統合フレームワークであるVeriFiを提案する。
論文 参考訳(メタデータ) (2022-05-25T12:20:02Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。