論文の概要: ABG: A Multi-Party Mixed Protocol Framework for Privacy-Preserving
Cooperative Learning
- arxiv url: http://arxiv.org/abs/2202.02928v1
- Date: Mon, 7 Feb 2022 03:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 04:48:44.646656
- Title: ABG: A Multi-Party Mixed Protocol Framework for Privacy-Preserving
Cooperative Learning
- Title(参考訳): ABG:プライバシー保護協調学習のための多人数混合プロトコルフレームワーク
- Authors: Hao Wang, Zhi Li, Chunpeng Ge, Willy Susilo
- Abstract要約: 本稿では、さまざまなデータ所有者が機械学習に協力できるプライバシー保護型多人数協調学習システムを提案する。
また,ロジスティック回帰やニューラルネットワークなど,一般的な機械学習手法に対して,特定のプライバシ保護計算プロトコルを設計する。
実験の結果,特に低レイテンシのネットワーク環境において,ABG$n$は優れた性能を示した。
- 参考スコア(独自算出の注目度): 13.212198032364363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cooperative learning, that enables two or more data owners to jointly train a
model, has been widely adopted to solve the problem of insufficient training
data in machine learning. Nowadays, there is an urgent need for institutions
and organizations to train a model cooperatively while keeping each other's
data privately. To address the issue of privacy-preserving in collaborative
learning, secure outsourced computation and federated learning are two typical
methods. Nevertheless, there are many drawbacks for these two methods when they
are leveraged in cooperative learning. For secure outsourced computation,
semi-honest servers need to be introduced. Once the outsourced servers collude
or perform other active attacks, the privacy of data will be disclosed. For
federated learning, it is difficult to apply to the scenarios where vertically
partitioned data are distributed over multiple parties. In this work, we
propose a multi-party mixed protocol framework, ABG$^n$, which effectively
implements arbitrary conversion between Arithmetic sharing (A), Boolean sharing
(B) and Garbled-Circuits sharing (G) for $n$-party scenarios. Based on ABG$^n$,
we design a privacy-preserving multi-party cooperative learning system, which
allows different data owners to cooperate in machine learning in terms of data
security and privacy-preserving. Additionally, we design specific
privacy-preserving computation protocols for some typical machine learning
methods such as logistic regression and neural networks. Compared with previous
work, the proposed method has a wider scope of application and does not need to
rely on additional servers. Finally, we evaluate the performance of ABG$^n$ on
the local setting and on the public cloud setting. The experiments indicate
that ABG$^n$ has excellent performance, especially in the network environment
with low latency.
- Abstract(参考訳): 2人以上のデータ所有者が共同でモデルをトレーニングできる協調学習は、機械学習における不十分なトレーニングデータの問題を解決するために広く採用されている。
今日では、互いにデータをプライベートに保ちながら協力的にモデルを訓練する機関や組織が緊急に必要となっている。
協調学習におけるプライバシ保護の問題に対処するために,セキュアなアウトソース計算と連合学習が典型的な方法である。
それにもかかわらず、これら2つの方法が協調学習で活用される場合、多くの欠点がある。
セキュアなアウトソース計算のためには、半正直なサーバを導入する必要がある。
アウトソースされたサーバが他のアクティブアタックを実行した場合、データのプライバシが開示される。
フェデレーション学習では,垂直分割されたデータを複数のパーティに分散するシナリオに適用することは困難である。
本研究では,多人数混合プロトコルフレームワーク abg$^n$ を提案する。これは計算共有 (a) ,ブール共有 (b) およびgarbled-circuits sharing (g) 間の任意の変換を,n$ パーティシナリオに対して効果的に実装するものである。
ABG$^n$に基づいて、さまざまなデータ所有者がデータセキュリティとプライバシ保護の観点から機械学習に協力できる、プライバシ保護型多人数協調学習システムを設計する。
さらに,ロジスティック回帰やニューラルネットワークなどの一般的な機械学習手法に対して,プライバシ保存型計算プロトコルを設計する。
従来の手法と比較して,提案手法はアプリケーションの範囲が広く,サーバの追加に頼る必要はない。
最後に,ローカル設定およびパブリッククラウド設定におけるABG$^n$の性能を評価する。
実験によると、abg$^n$は特に低レイテンシのネットワーク環境において優れた性能を示す。
関連論文リスト
- Over-the-Air Federated Learning In Broadband Communication [0.0]
Federated Learning(FL)は、プライバシ保護のための分散機械学習パラダイムで、無線エッジで動作する。
いくつかはセキュアなマルチパーティ計算に依存しており、推論攻撃に弱い可能性がある。
他のものは差分プライバシーを採用しているが、これは少数のデータに寄与する多数のパーティを扱う際のテストの精度を低下させる可能性がある。
論文 参考訳(メタデータ) (2023-06-03T00:16:27Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - Constrained Differentially Private Federated Learning for Low-bandwidth
Devices [1.1470070927586016]
本稿では,新しいプライバシー保護型連合学習方式を提案する。
これは、差分プライバシーに基づく理論上のプライバシー保証を提供する。
上流と下流の帯域幅を標準のフェデレート学習と比較して最大99.9%削減する。
論文 参考訳(メタデータ) (2021-02-27T22:25:06Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。