論文の概要: FedIPR: Ownership Verification for Federated Deep Neural Network Models
- arxiv url: http://arxiv.org/abs/2109.13236v1
- Date: Mon, 27 Sep 2021 12:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 14:58:28.802407
- Title: FedIPR: Ownership Verification for Federated Deep Neural Network Models
- Title(参考訳): fedipr:federated deep neural networkモデルの所有権検証
- Authors: Lixin Fan and Bowen Li and Hanlin Gu and Jie Li and Qiang Yang
- Abstract要約: これらのモデルは、複数の機関や人々が所有する貴重なトレーニングデータに基づいて構築されているため、フェデレートされた学習モデルは、盗作行為から保護されなければならない。
本稿では、FedDNNモデルの知的財産権(IPR)を主張するために、所有権署名を埋め込み、検証できる新しいフェデレーションディープニューラルネットワーク(FedDNN)のオーナシップ検証スキームについて述べる。
- 参考スコア(独自算出の注目度): 31.459374163080994
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning models must be protected against plagiarism since these
models are built upon valuable training data owned by multiple institutions or
people.This paper illustrates a novel federated deep neural network (FedDNN)
ownership verification scheme that allows ownership signatures to be embedded
and verified to claim legitimate intellectual property rights (IPR) of FedDNN
models, in case that models are illegally copied, re-distributed or misused.
The effectiveness of embedded ownership signatures is theoretically justified
by proved condition sunder which signatures can be embedded and detected by
multiple clients with-out disclosing private signatures. Extensive experimental
results on CIFAR10,CIFAR100 image datasets demonstrate that varying bit-lengths
signatures can be embedded and reliably detected without affecting models
classification performances. Signatures are also robust against removal attacks
including fine-tuning and pruning.
- Abstract(参考訳): 本稿では,federated deep neural network (feddnn) のオーナシップ検証手法を用いて,federated deep neural network (feddnn) モデルが違法に複製されたり,再配布されたり,誤用されたりした場合に,feddnnモデルの正当な知的財産権(ipr)を主張できることを示す。
組込みオーナシップシグネチャの有効性は、プライベートシグネチャを公開せずに複数のクライアントがシグネチャを埋め込み検出できる証明条件サンダーによって理論的に正当化される。
CIFAR10,CIFAR100画像データセットの大規模な実験結果から、様々なビット長のシグネチャを、モデル分類性能に影響を与えることなく埋め込み、確実に検出できることが示されている。
署名はまた、微調整やプルーニングを含む除去攻撃に対して堅牢である。
関連論文リスト
- Trustless Audits without Revealing Data or Models [49.23322187919369]
モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
論文 参考訳(メタデータ) (2024-04-06T04:43:06Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - VeriDIP: Verifying Ownership of Deep Neural Networks through Privacy
Leakage Fingerprints [16.564206424838485]
マシンラーニング・アズ・ア・サービスへのデプロイは、モデルプラジャリズムを引き起こし、著作権侵害につながる。
本稿では,モデルの知的特性を検証する VeriDIP という新しいオーナシップテスト手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T01:58:12Z) - FedSOV: Federated Model Secure Ownership Verification with Unforgeable
Signature [60.99054146321459]
フェデレートラーニングにより、複数のパーティがプライベートデータを公開せずにグローバルモデルを学ぶことができる。
本稿では,FedSOVという暗号署名に基づくフェデレート学習モデルのオーナシップ検証手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T12:10:02Z) - FedRight: An Effective Model Copyright Protection for Federated Learning [3.387494280613737]
フェデレートラーニング(FL)はモデルトレーニングを実装し、一方でローカルデータのプライバシを保護する。
FLの著作権保護の問題を初めて定式化した。
我々はモデル指紋に基づくモデル著作権を保護するためにFedRightを提案する。
論文 参考訳(メタデータ) (2023-03-18T11:47:54Z) - DeepHider: A Multi-module and Invisibility Watermarking Scheme for
Language Model [0.0]
本稿では,モデル分類モジュールを置換し,モデル全体の微調整を行う新たな脅威を提案する。
私たちは、盗難の所有権ステートメントを防ぐために、タンパー保護やトレーサビリティといったブロックチェーンの特性を使用します。
実験の結果,提案手法は100%の透かし検証精度でオーナシップの検証に成功した。
論文 参考訳(メタデータ) (2022-08-09T11:53:24Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。