論文の概要: FedRight: An Effective Model Copyright Protection for Federated Learning
- arxiv url: http://arxiv.org/abs/2303.10399v1
- Date: Sat, 18 Mar 2023 11:47:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 19:36:54.954189
- Title: FedRight: An Effective Model Copyright Protection for Federated Learning
- Title(参考訳): FedRight:フェデレーション学習のための効果的なモデル著作権保護
- Authors: Jinyin Chen, Mingjun Li, Mingjun Li, Haibin Zheng
- Abstract要約: フェデレートラーニング(FL)はモデルトレーニングを実装し、一方でローカルデータのプライバシを保護する。
FLの著作権保護の問題を初めて定式化した。
我々はモデル指紋に基づくモデル著作権を保護するためにFedRightを提案する。
- 参考スコア(独自算出の注目度): 3.387494280613737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL), an effective distributed machine learning framework,
implements model training and meanwhile protects local data privacy. It has
been applied to a broad variety of practice areas due to its great performance
and appreciable profits. Who owns the model, and how to protect the copyright
has become a real problem. Intuitively, the existing property rights protection
methods in centralized scenarios (e.g., watermark embedding and model
fingerprints) are possible solutions for FL. But they are still challenged by
the distributed nature of FL in aspects of the no data sharing, parameter
aggregation, and federated training settings. For the first time, we formalize
the problem of copyright protection for FL, and propose FedRight to protect
model copyright based on model fingerprints, i.e., extracting model features by
generating adversarial examples as model fingerprints. FedRight outperforms
previous works in four key aspects: (i) Validity: it extracts model features to
generate transferable fingerprints to train a detector to verify the copyright
of the model. (ii) Fidelity: it is with imperceptible impact on the federated
training, thus promising good main task performance. (iii) Robustness: it is
empirically robust against malicious attacks on copyright protection, i.e.,
fine-tuning, model pruning, and adaptive attacks. (iv) Black-box: it is valid
in the black-box forensic scenario where only application programming interface
calls to the model are available. Extensive evaluations across 3 datasets and 9
model structures demonstrate FedRight's superior fidelity, validity, and
robustness.
- Abstract(参考訳): 効果的な分散機械学習フレームワークであるfederated learning(fl)は、モデルトレーニングを実装し、一方でローカルデータのプライバシを保護する。
業績の良さと利益の良さから、幅広い実践分野に適用されている。
誰がモデルを所有していて、著作権を守る方法が現実の問題になっている。
直感的には、集中型シナリオ(例えば、透かしの埋め込みやモデル指紋)における既存の財産権保護手法はFLに対して可能な解決策である。
しかし、データ共有、パラメータアグリゲーション、フェデレートされたトレーニング設定がないという面において、FLの分散性には依然として課題があります。
今回我々は,flの著作権保護に関する問題を初めて定式化し,モデル指紋に基づくモデル著作権,すなわち,モデル指紋として逆例を生成してモデル特徴を抽出するfeedrightを提案する。
FedRightは、以前の仕事を4つの重要な面で上回っている。
(i)妥当性:モデルの特徴を抽出し、転送可能な指紋を生成して、モデルの著作権を検証するために検出器を訓練する。
(ii)忠実性: 連合トレーニングに不可避な影響を与えるため、優れたメインタスクパフォーマンスが期待できる。
(iii)堅牢性:著作権保護に対する悪意のある攻撃、すなわち微調整、モデルプルーニング、適応攻撃に対して経験的に堅牢である。
(iv)ブラックボックス: モデルへのアプリケーションプログラミングインターフェース呼び出しのみが利用できるブラックボックスの法医学的シナリオで有効である。
3つのデータセットと9つのモデル構造にわたる広範な評価は、feedrightの優れた忠実性、妥当性、堅牢性を示している。
関連論文リスト
- REEF: Representation Encoding Fingerprints for Large Language Models [53.679712605506715]
REEFは、被疑者モデルと被害者モデルの表現との中心となるカーネルアライメントの類似性を計算し、比較する。
このトレーニング不要のREEFは、モデルの一般的な能力を損なうことなく、シーケンシャルな微調整、プルーニング、モデルマージ、置換に堅牢である。
論文 参考訳(メタデータ) (2024-10-18T08:27:02Z) - EncryIP: A Practical Encryption-Based Framework for Model Intellectual
Property Protection [17.655627250882805]
本稿では,TextitEncryIPという,実用的な暗号化ベースのフレームワークを紹介する。
公開鍵暗号スキームをモデル学習プロセスにシームレスに統合する。
これは、トレーニングされた保護されたモデルと、許可されていないMLモデルの拡散を効率的に検出する双方において、優れた効果を示す。
論文 参考訳(メタデータ) (2023-12-19T11:11:03Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - FedSOV: Federated Model Secure Ownership Verification with Unforgeable
Signature [60.99054146321459]
フェデレートラーニングにより、複数のパーティがプライベートデータを公開せずにグローバルモデルを学ぶことができる。
本稿では,FedSOVという暗号署名に基づくフェデレート学習モデルのオーナシップ検証手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T12:10:02Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - FedTracker: Furnishing Ownership Verification and Traceability for
Federated Learning Model [33.03362469978148]
Federated Learning(FL)は、複数のクライアントがローカルデータを共有せずにグローバルモデルを共同でトレーニングできる分散機械学習パラダイムである。
これにより、悪意のあるクライアントによる不正なモデル配布や再販のリスクが生じ、FLグループの知的財産権が損なわれる。
オーナシップ検証とトレーサビリティの両方を提供する最初のFLモデル保護フレームワークであるFedTrackerを紹介します。
論文 参考訳(メタデータ) (2022-11-14T07:40:35Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - FedIPR: Ownership Verification for Federated Deep Neural Network Models [31.459374163080994]
これらのモデルは、複数の機関や人々が所有する貴重なトレーニングデータに基づいて構築されているため、フェデレートされた学習モデルは、盗作行為から保護されなければならない。
本稿では、FedDNNモデルの知的財産権(IPR)を主張するために、所有権署名を埋め込み、検証できる新しいフェデレーションディープニューラルネットワーク(FedDNN)のオーナシップ検証スキームについて述べる。
論文 参考訳(メタデータ) (2021-09-27T12:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。