論文の概要: FedSOV: Federated Model Secure Ownership Verification with Unforgeable
Signature
- arxiv url: http://arxiv.org/abs/2305.06085v1
- Date: Wed, 10 May 2023 12:10:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 13:20:56.334932
- Title: FedSOV: Federated Model Secure Ownership Verification with Unforgeable
Signature
- Title(参考訳): FedSOV: 忘れられない署名によるフェデレーションモデルセキュアなオーナシップ検証
- Authors: Wenyuan Yang, Gongxi Zhu, Yuguo Yin, Hanlin Gu, Lixin Fan, Qiang Yang,
Xiaochun Cao
- Abstract要約: フェデレートラーニングにより、複数のパーティがプライベートデータを公開せずにグローバルモデルを学ぶことができる。
本稿では,FedSOVという暗号署名に基づくフェデレート学習モデルのオーナシップ検証手法を提案する。
- 参考スコア(独自算出の注目度): 60.99054146321459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning allows multiple parties to collaborate in learning a
global model without revealing private data. The high cost of training and the
significant value of the global model necessitates the need for ownership
verification of federated learning. However, the existing ownership
verification schemes in federated learning suffer from several limitations,
such as inadequate support for a large number of clients and vulnerability to
ambiguity attacks. To address these limitations, we propose a cryptographic
signature-based federated learning model ownership verification scheme named
FedSOV. FedSOV allows numerous clients to embed their ownership credentials and
verify ownership using unforgeable digital signatures. The scheme provides
theoretical resistance to ambiguity attacks with the unforgeability of the
signature. Experimental results on computer vision and natural language
processing tasks demonstrate that FedSOV is an effective federated model
ownership verification scheme enhanced with provable cryptographic security.
- Abstract(参考訳): フェデレートラーニングにより、複数のパーティがプライベートデータを公開せずにグローバルモデルを学ぶことができる。
トレーニングの高コストとグローバルモデルの重要な価値は、フェデレートされた学習のオーナシップ検証を必要とする。
しかしながら、連合学習における既存のオーナシップ検証スキームには、多数のクライアントの不十分なサポートやあいまいな攻撃に対する脆弱性など、いくつかの制限がある。
これらの制約に対処するため,FedSOVという暗号署名に基づくフェデレート学習モデルのオーナシップ検証手法を提案する。
フェソフは、多くのクライアントが自分の所有権証明書を埋め込んで、忘れられないデジタル署名を使って所有権を検証できる。
このスキームは、署名の忘れがたい曖昧さ攻撃に対する理論的抵抗を提供する。
コンピュータビジョンと自然言語処理タスクの実験結果から、FedSOVは証明可能な暗号セキュリティによって強化された効果的なフェデレーションモデルオーナシップ検証スキームであることが示された。
関連論文リスト
- Model Stealing Attack against Graph Classification with Authenticity,
Uncertainty and Diversity [85.1927483219819]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - FedZKP: Federated Model Ownership Verification with Zero-knowledge Proof [60.990541463214605]
フェデレートラーニング(Federated Learning, FL)は、複数のパーティが互いにプライベートデータを共有することなく、協調的にフェデレーションモデルの学習を可能にする。
ゼロ知識証明(FedZKP)を用いた証明可能なモデルオーナシップ検証手法を提案する。
論文 参考訳(メタデータ) (2023-05-08T07:03:33Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - CATFL: Certificateless Authentication-based Trustworthy Federated
Learning for 6G Semantic Communications [12.635921154497987]
フェデレートラーニング(FL)はセマンティックコミュニケーションシステムのセマンティックエンコーダ/デコーダモデルを協調的に訓練するための新しいアプローチを提供する。
信頼に値するFLに関する既存の研究は、悪意のあるクライアントが生み出すデータ中毒の脅威を取り除くことを目的としている。
クライアントとサーバの同一性を相互に認証する,認証レス認証に基づく信頼できるフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-01T06:26:44Z) - FedTracker: Furnishing Ownership Verification and Traceability for
Federated Learning Model [33.03362469978148]
Federated Learning(FL)は、複数のクライアントがローカルデータを共有せずにグローバルモデルを共同でトレーニングできる分散機械学習パラダイムである。
これにより、悪意のあるクライアントによる不正なモデル配布や再販のリスクが生じ、FLグループの知的財産権が損なわれる。
オーナシップ検証とトレーサビリティの両方を提供する最初のFLモデル保護フレームワークであるFedTrackerを紹介します。
論文 参考訳(メタデータ) (2022-11-14T07:40:35Z) - FedIPR: Ownership Verification for Federated Deep Neural Network Models [31.459374163080994]
これらのモデルは、複数の機関や人々が所有する貴重なトレーニングデータに基づいて構築されているため、フェデレートされた学習モデルは、盗作行為から保護されなければならない。
本稿では、FedDNNモデルの知的財産権(IPR)を主張するために、所有権署名を埋め込み、検証できる新しいフェデレーションディープニューラルネットワーク(FedDNN)のオーナシップ検証スキームについて述べる。
論文 参考訳(メタデータ) (2021-09-27T12:51:24Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。