論文の概要: Scotch: An Efficient Secure Computation Framework for Secure Aggregation
- arxiv url: http://arxiv.org/abs/2201.07730v1
- Date: Wed, 19 Jan 2022 17:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 15:41:42.268154
- Title: Scotch: An Efficient Secure Computation Framework for Secure Aggregation
- Title(参考訳): Scotch: セキュア集約のための効率的なセキュア計算フレームワーク
- Authors: Arup Mondal, Yash More, Prashanthi Ramachandran, Priyam Panda,
Harpreet Virk, Debayan Gupta
- Abstract要約: フェデレーション学習は、複数のデータ所有者がプライベートデータセットを公開せずに、機械学習モデルを共同でトレーニングすることを可能にする。
悪意のある集約サーバは、モデルパラメータを使用して、使用したトレーニングデータセットに関する機密情報を導き出すことができる。
フェデレーションアグリゲーションのための分散化テキストitm-partyセキュア計算フレームワークであるtextscScotch を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning enables multiple data owners to jointly train a machine
learning model without revealing their private datasets. However, a malicious
aggregation server might use the model parameters to derive sensitive
information about the training dataset used. To address such leakage,
differential privacy and cryptographic techniques have been investigated in
prior work, but these often result in large communication overheads or impact
model performance. To mitigate this centralization of power, we propose
\textsc{Scotch}, a decentralized \textit{m-party} secure-computation framework
for federated aggregation that deploys MPC primitives, such as \textit{secret
sharing}. Our protocol is simple, efficient, and provides strict privacy
guarantees against curious aggregators or colluding data-owners with minimal
communication overheads compared to other existing \textit{state-of-the-art}
privacy-preserving federated learning frameworks. We evaluate our framework by
performing extensive experiments on multiple datasets with promising results.
\textsc{Scotch} can train the standard MLP NN with the training dataset split
amongst 3 participating users and 3 aggregating servers with 96.57\% accuracy
on MNIST, and 98.40\% accuracy on the Extended MNIST (digits) dataset, while
providing various optimizations.
- Abstract(参考訳): フェデレーション学習は、複数のデータ所有者がプライベートデータセットを公開せずに、機械学習モデルを共同でトレーニングすることを可能にする。
しかし、悪意のあるアグリゲーションサーバは、モデルパラメータを使用して、使用するトレーニングデータセットに関する機密情報を導き出すことができる。
このような漏洩に対処するために、ディファレンシャルプライバシと暗号化技術が先行研究で研究されてきたが、これは大きな通信オーバーヘッドやモデルパフォーマンスへの影響をもたらすことが多い。
この中央集権化を緩和するため,我々は,分散型 \textit{m-party} secure-computation frameworkである \textit{secret sharing} という mpc プリミティブをデプロイするフェデレートアグリゲーションのための \textsc{scotch} を提案する。
私たちのプロトコルはシンプルで効率的で、興味のあるアグリゲータに対する厳格なプライバシー保証や、通信オーバーヘッドを最小限に抑えるデータ所有者とのコラボレーションを提供する。
我々は,有望な結果を得た複数のデータセットに対して広範な実験を行うことで,我々のフレームワークを評価する。
\textsc{Scotch} は、トレーニングデータセットを3人の参加ユーザと3つの集約サーバに分割し、MNISTで96.57\%、拡張MNIST(digits)データセットで98.40\%の精度でトレーニングすることができる。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Efficient Federated Prompt Tuning for Black-box Large Pre-trained Models [62.838689691468666]
我々は,各ローカルデータセットを最適に活用するためのフェデレートブラックボックス・プロンプト・チューニング(Fed-BBPT)を提案する。
Fed-BBPTは、ローカルユーザーがレギュラーアグリゲーションを通じてプロンプトジェネレータを協調的に訓練するのを支援する中央サーバーに重点を置いている。
大規模な微調整とは対照的に、Fed-BBPTは、PTMストレージとローカルマシンの微調整に関連するメモリの課題を、十分にサイドステップで解決している。
論文 参考訳(メタデータ) (2023-10-04T19:30:49Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Differentially Private Label Protection in Split Learning [20.691549091238965]
Split Learningは分散トレーニングフレームワークで、複数のパーティが分割されたデータ上で機械学習モデルを共同でトレーニングすることができる。
近年の研究では、分割学習の実装は、半正直な敵が簡単にラベルを再構築できる厳しいプライバシーリスクに悩まされていることが示されている。
提案するtextsfTPSL (Transcript Private Split Learning) は,差分プライバシーを保証する汎用的なグラデーションベース分割学習フレームワークである。
論文 参考訳(メタデータ) (2022-03-04T00:35:03Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - FedOCR: Communication-Efficient Federated Learning for Scene Text
Recognition [76.26472513160425]
本研究では、分散化されたデータセットを用いて、ロバストなシーンテキスト認識器を訓練する方法について研究する。
FedOCRをエンドデバイスにデプロイするのに適したものにするために、軽量モデルとハッシュ技術の使用を含む2つの改善を行った。
論文 参考訳(メタデータ) (2020-07-22T14:30:50Z) - Evaluation Framework For Large-scale Federated Learning [10.127616622630514]
フェデレーテッド・ラーニングは、携帯電話などの分散型エッジデバイスが協調して共有予測モデルを学習できるようにするための機械学習環境として提案されている。
本稿では,データセットとモジュール型評価フレームワークを生成するためのアプローチからなる,大規模フェデレーション学習のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-03T15:12:13Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。