論文の概要: FedSOV: Federated Model Secure Ownership Verification with Unforgeable
Signature
- arxiv url: http://arxiv.org/abs/2305.06085v1
- Date: Wed, 10 May 2023 12:10:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 13:20:56.334932
- Title: FedSOV: Federated Model Secure Ownership Verification with Unforgeable
Signature
- Title(参考訳): FedSOV: 忘れられない署名によるフェデレーションモデルセキュアなオーナシップ検証
- Authors: Wenyuan Yang, Gongxi Zhu, Yuguo Yin, Hanlin Gu, Lixin Fan, Qiang Yang,
Xiaochun Cao
- Abstract要約: フェデレートラーニングにより、複数のパーティがプライベートデータを公開せずにグローバルモデルを学ぶことができる。
本稿では,FedSOVという暗号署名に基づくフェデレート学習モデルのオーナシップ検証手法を提案する。
- 参考スコア(独自算出の注目度): 60.99054146321459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning allows multiple parties to collaborate in learning a
global model without revealing private data. The high cost of training and the
significant value of the global model necessitates the need for ownership
verification of federated learning. However, the existing ownership
verification schemes in federated learning suffer from several limitations,
such as inadequate support for a large number of clients and vulnerability to
ambiguity attacks. To address these limitations, we propose a cryptographic
signature-based federated learning model ownership verification scheme named
FedSOV. FedSOV allows numerous clients to embed their ownership credentials and
verify ownership using unforgeable digital signatures. The scheme provides
theoretical resistance to ambiguity attacks with the unforgeability of the
signature. Experimental results on computer vision and natural language
processing tasks demonstrate that FedSOV is an effective federated model
ownership verification scheme enhanced with provable cryptographic security.
- Abstract(参考訳): フェデレートラーニングにより、複数のパーティがプライベートデータを公開せずにグローバルモデルを学ぶことができる。
トレーニングの高コストとグローバルモデルの重要な価値は、フェデレートされた学習のオーナシップ検証を必要とする。
しかしながら、連合学習における既存のオーナシップ検証スキームには、多数のクライアントの不十分なサポートやあいまいな攻撃に対する脆弱性など、いくつかの制限がある。
これらの制約に対処するため,FedSOVという暗号署名に基づくフェデレート学習モデルのオーナシップ検証手法を提案する。
フェソフは、多くのクライアントが自分の所有権証明書を埋め込んで、忘れられないデジタル署名を使って所有権を検証できる。
このスキームは、署名の忘れがたい曖昧さ攻撃に対する理論的抵抗を提供する。
コンピュータビジョンと自然言語処理タスクの実験結果から、FedSOVは証明可能な暗号セキュリティによって強化された効果的なフェデレーションモデルオーナシップ検証スキームであることが示された。
関連論文リスト
- Trustless Audits without Revealing Data or Models [49.23322187919369]
モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
論文 参考訳(メタデータ) (2024-04-06T04:43:06Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - FedZKP: Federated Model Ownership Verification with Zero-knowledge Proof [60.990541463214605]
フェデレートラーニング(Federated Learning, FL)は、複数のパーティが互いにプライベートデータを共有することなく、協調的にフェデレーションモデルの学習を可能にする。
ゼロ知識証明(FedZKP)を用いた証明可能なモデルオーナシップ検証手法を提案する。
論文 参考訳(メタデータ) (2023-05-08T07:03:33Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - CATFL: Certificateless Authentication-based Trustworthy Federated
Learning for 6G Semantic Communications [12.635921154497987]
フェデレートラーニング(FL)はセマンティックコミュニケーションシステムのセマンティックエンコーダ/デコーダモデルを協調的に訓練するための新しいアプローチを提供する。
信頼に値するFLに関する既存の研究は、悪意のあるクライアントが生み出すデータ中毒の脅威を取り除くことを目的としている。
クライアントとサーバの同一性を相互に認証する,認証レス認証に基づく信頼できるフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-01T06:26:44Z) - FedTracker: Furnishing Ownership Verification and Traceability for
Federated Learning Model [33.03362469978148]
Federated Learning(FL)は、複数のクライアントがローカルデータを共有せずにグローバルモデルを共同でトレーニングできる分散機械学習パラダイムである。
これにより、悪意のあるクライアントによる不正なモデル配布や再販のリスクが生じ、FLグループの知的財産権が損なわれる。
オーナシップ検証とトレーサビリティの両方を提供する最初のFLモデル保護フレームワークであるFedTrackerを紹介します。
論文 参考訳(メタデータ) (2022-11-14T07:40:35Z) - FedIPR: Ownership Verification for Federated Deep Neural Network Models [31.459374163080994]
これらのモデルは、複数の機関や人々が所有する貴重なトレーニングデータに基づいて構築されているため、フェデレートされた学習モデルは、盗作行為から保護されなければならない。
本稿では、FedDNNモデルの知的財産権(IPR)を主張するために、所有権署名を埋め込み、検証できる新しいフェデレーションディープニューラルネットワーク(FedDNN)のオーナシップ検証スキームについて述べる。
論文 参考訳(メタデータ) (2021-09-27T12:51:24Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。