論文の概要: Secure and Verifiable Data Collaboration with Low-Cost Zero-Knowledge
Proofs
- arxiv url: http://arxiv.org/abs/2311.15310v1
- Date: Sun, 26 Nov 2023 14:19:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 18:20:48.456974
- Title: Secure and Verifiable Data Collaboration with Low-Cost Zero-Knowledge
Proofs
- Title(参考訳): 低コストゼロ知識証明によるセキュアで検証可能なデータコラボレーション
- Authors: Yizheng Zhu, Yuncheng Wu, Zhaojing Luo, Beng Chin Ooi, Xiaokui Xiao
- Abstract要約: 本稿では,セキュアかつ検証可能なデータコラボレーションのための新しい高効率ソリューションRiseFLを提案する。
まず,ZKP生成と検証のコストを大幅に削減する確率論的整合性検査法を提案する。
第3に,ビザンチンのロバスト性を満たすハイブリッドなコミットメントスキームを設計し,性能を向上する。
- 参考スコア(独自算出の注目度): 30.260427020479536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Organizations are increasingly recognizing the value of data collaboration
for data analytics purposes. Yet, stringent data protection laws prohibit the
direct exchange of raw data. To facilitate data collaboration, federated
Learning (FL) emerges as a viable solution, which enables multiple clients to
collaboratively train a machine learning (ML) model under the supervision of a
central server while ensuring the confidentiality of their raw data. However,
existing studies have unveiled two main risks: (i) the potential for the server
to infer sensitive information from the client's uploaded updates (i.e., model
gradients), compromising client input privacy, and (ii) the risk of malicious
clients uploading malformed updates to poison the FL model, compromising input
integrity. Recent works utilize secure aggregation with zero-knowledge proofs
(ZKP) to guarantee input privacy and integrity in FL. Nevertheless, they suffer
from extremely low efficiency and, thus, are impractical for real deployment.
In this paper, we propose a novel and highly efficient solution RiseFL for
secure and verifiable data collaboration, ensuring input privacy and integrity
simultaneously.Firstly, we devise a probabilistic integrity check method that
significantly reduces the cost of ZKP generation and verification. Secondly, we
design a hybrid commitment scheme to satisfy Byzantine robustness with improved
performance. Thirdly, we theoretically prove the security guarantee of the
proposed solution. Extensive experiments on synthetic and real-world datasets
suggest that our solution is effective and is highly efficient in both client
computation and communication. For instance, RiseFL is up to 28x, 53x and 164x
faster than three state-of-the-art baselines ACORN, RoFL and EIFFeL for the
client computation.
- Abstract(参考訳): 組織は、データ分析のためのデータコラボレーションの価値をますます認識している。
しかし、厳格なデータ保護法は生データの直接交換を禁じている。
データコラボレーションを容易にするために、フェデレートラーニング(FL)が実現可能なソリューションとして登場し、複数のクライアントが、その生データの機密性を確保しつつ、中央サーバの監督下で機械学習(ML)モデルを協調的にトレーニングすることができる。
しかし、既存の研究は2つの大きなリスクを明らかにしている。
(i)クライアントがアップロードした更新(つまりモデル勾配)から機密情報を推測し、クライアントの入力プライバシを侵害する可能性があること。
(ii) 不正な更新をアップロードしてflモデルに毒を盛る悪意のあるクライアントのリスクは、入力整合性を損なう。
近年の研究では、ゼロ知識証明(ZKP)によるセキュアアグリゲーションを利用して、FLの入力プライバシーと整合性を保証する。
それでも、非常に低い効率に悩まされており、実際の配備には実用的ではない。
本稿では,入力プライバシと整合性を同時に確保し,安全かつ検証可能なデータコラボレーションのための,新規かつ高効率な解 risefl を提案する。
次に,ビザンチンのロバスト性を満たすハイブリッドなコミットメントスキームを設計し,性能を向上する。
第3に,提案手法のセキュリティ保証を理論的に証明する。
合成データと実世界のデータセットに関する広範な実験は、我々のソリューションは効率的であり、クライアントの計算と通信の両方において非常に効率的であることを示唆している。
例えばRiseFLは、クライアント計算の3つの最先端ベースラインであるACORN, RoFL, EIFFeLよりも最大28x, 53x, 164x高速である。
関連論文リスト
- Protection against Source Inference Attacks in Federated Learning using Unary Encoding and Shuffling [6.260747047974035]
Federated Learning (FL)は、クライアントがローカルデータを開示することなく、ジョイントモデルをトレーニングすることを可能にする。
近年, ソース推論攻撃 (SIA) が提案され, クライアントが特定のデータレコードを所有しているかを正確に特定しようとする。
本稿では, 信頼性の高いシャフラーを用いて, 関節モデルの精度を損なうことなく, SIA に対する防御策を提案する。
論文 参考訳(メタデータ) (2024-11-10T13:17:11Z) - OATH: Efficient and Flexible Zero-Knowledge Proofs of End-to-End ML Fairness [13.986886689256128]
Zero-Knowledge Proofs of Fairnessは、サービスプロバイダが彼らのモデルが多様な人口動態を公平に提供できることを検証することによって、フェアネスの非準拠に対処する。
OATHはクライアント対面通信とオフライン監査フェーズを効果的にデプロイできるフレームワークである。
OATHは、ニューラルネットワークZKPoFの以前の作業よりも、ランタイムを1343倍改善し、はるかに大きなモデルにスケールアップする。
論文 参考訳(メタデータ) (2024-09-17T16:00:35Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Complete Security and Privacy for AI Inference in Decentralized Systems [14.526663289437584]
大規模なモデルは病気の診断のようなタスクには不可欠ですが、繊細でスケーラビリティに欠ける傾向があります。
Nesaはこれらの課題を、複数のテクニックを使って包括的なフレームワークで解決し、データとモデル出力を保護する。
ネサの最先端の証明と原則は、このフレームワークの有効性を実証している。
論文 参考訳(メタデータ) (2024-07-28T05:09:17Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - Robust and Actively Secure Serverless Collaborative Learning [48.01929996757643]
コラボレーティブ機械学習(ML)は、分散データからより良いモデルを学ぶために広く利用されている。
学習のための協調的なアプローチは、直感的にユーザデータを保護しますが、サーバ、クライアント、あるいはその両方に対して脆弱なままです。
本稿では、悪意のあるサーバに対してセキュアで、悪意のあるクライアントに対して堅牢なピアツーピア学習方式を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:43:03Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - PRECAD: Privacy-Preserving and Robust Federated Learning via
Crypto-Aided Differential Privacy [14.678119872268198]
フェデレートラーニング(FL)は、複数の参加するクライアントがデータセットをローカルに保持し、モデル更新のみを交換することで、機械学習モデルを協調的にトレーニングすることを可能にする。
既存のFLプロトコルの設計は、データのプライバシやモデルの堅牢性を損なうような攻撃に対して脆弱であることが示されている。
我々はPreCADと呼ばれるフレームワークを開発し、同時に差分プライバシー(DP)を実現し、暗号の助けを借りてモデル中毒攻撃に対する堅牢性を高める。
論文 参考訳(メタデータ) (2021-10-22T04:08:42Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。