論文の概要: Quadratic Functional Encryption for Secure Training in Vertical
Federated Learning
- arxiv url: http://arxiv.org/abs/2305.08358v1
- Date: Mon, 15 May 2023 05:31:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 16:00:11.339546
- Title: Quadratic Functional Encryption for Secure Training in Vertical
Federated Learning
- Title(参考訳): 垂直フェデレート学習におけるセキュアトレーニングのための二次関数暗号
- Authors: Shuangyi Chen, Anuja Modi, Shweta Agrawal, Ashish Khisti
- Abstract要約: Vertical Federated Learning(VFL)は、複数のパーティに分散した設定において、機械学習(ML)モデルの協調トレーニングを可能にする。
VFLでは、ラベルは単一のパーティで利用可能であり、すべてのパーティのデータが結合された場合にのみ、完全なフィーチャーセットが形成される。
近年、Xuらはマルチインプット関数暗号を用いたVFLのためのセキュア勾配計算のためのFedVと呼ばれる新しいフレームワークを提案した。
- 参考スコア(独自算出の注目度): 26.188083606166806
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Vertical federated learning (VFL) enables the collaborative training of
machine learning (ML) models in settings where the data is distributed amongst
multiple parties who wish to protect the privacy of their individual data.
Notably, in VFL, the labels are available to a single party and the complete
feature set is formed only when data from all parties is combined. Recently, Xu
et al. proposed a new framework called FedV for secure gradient computation for
VFL using multi-input functional encryption. In this work, we explain how some
of the information leakage in Xu et al. can be avoided by using Quadratic
functional encryption when training generalized linear models for vertical
federated learning.
- Abstract(参考訳): 垂直連合学習(VFL)は、個々のデータのプライバシ保護を希望する複数のパーティ間でデータが分散されるような環境で、機械学習(ML)モデルの協調トレーニングを可能にする。
特にvflでは、ラベルは単一のパーティで利用可能であり、すべてのパーティのデータが結合された場合にのみ、完全な機能セットが形成される。
近年、Xuらはマルチインプット関数暗号を用いたVFLのためのセキュア勾配計算のためのFedVと呼ばれる新しいフレームワークを提案した。
本稿では,縦型フェデレート学習のための一般化線形モデルを訓練する際に,擬似関数暗号を用いることで,Xuなどの情報漏洩を回避できる方法を説明する。
関連論文リスト
- Hijack Vertical Federated Learning Models As One Party [43.095945038428404]
Vertical Federated Learning(VFL)は、コラボレーション者が分散形式で機械学習モデルを一緒に構築できるようにする、新たなパラダイムである。
既存のVFLフレームワークは、データのプライバシとセキュリティ保証を提供するために暗号化技術を使用している。
論文 参考訳(メタデータ) (2022-12-01T07:12:38Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - BlindFL: Vertical Federated Machine Learning without Peeking into Your
Data [20.048695060411774]
垂直連合学習(VFL)は、さまざまな参加者のプライベートデータに基づいてMLモデルを構築する場合を記述している。
本稿では,VFLトレーニングと推論のための新しいフレームワークであるBlindFLを紹介する。
BlindFLは、堅牢なプライバシー保証を達成しつつ、多様なデータセットやモデルを効率的にサポートする。
論文 参考訳(メタデータ) (2022-06-16T07:26:50Z) - Game of Privacy: Towards Better Federated Platform Collaboration under
Privacy Restriction [95.12382372267724]
Vertical Federated Learning (VFL)は、異なるプラットフォームに格納された異なる機能空間を持つクロスサイロデータからモデルをトレーニングすることを目的としている。
フェデレーション学習の固有のプライバシーリスクのため、関連するデータの総量は制限される可能性がある。
我々は、VFLフレームワークのマルチプラットフォーム情報を活用して、各プラットフォームが自身のタスクに役立てることができるような、相互協力を通じて、異なるプラットフォームをインセンティブにすることを提案する。
論文 参考訳(メタデータ) (2022-02-10T16:45:40Z) - EFMVFL: An Efficient and Flexible Multi-party Vertical Federated
Learning without a Third Party [7.873139977724476]
フェデレートラーニング(Federated Learning)は、複数の参加者が、ローカルデータを開示することなく、共同でモデリングを行うことを可能にする。
EFMVFLと呼ばれるサードパーティを使わずに新しいVFLフレームワークを提案する。
私たちのフレームワークはセキュアで、より効率的で、複数の参加者に拡張が容易です。
論文 参考訳(メタデータ) (2022-01-17T07:06:21Z) - Coding for Straggler Mitigation in Federated Learning [86.98177890676077]
提案手法は,プライバシと勾配コードを保存するために1回パディングを組み合わせることで,ストラグラーに対する抵抗性を向上する。
提案手法は,MNISTデータセットとFashion-MNISTデータセットのトレーニングスピードアップ係数が6.6ドルと9.2ドルであり,それぞれ95%と85%であることを示す。
論文 参考訳(メタデータ) (2021-09-30T15:53:35Z) - A Coupled Design of Exploiting Record Similarity for Practical Vertical
Federated Learning [47.77625754666018]
フェデレートドラーニング(Federated Learning)は、生データを明らかにすることなく、さまざまなパーティ間で協調学習を可能にする学習パラダイムである。
垂直連合学習における既存の研究は「記録リンク」プロセスを無視している。
トレーニングプロセスに1対多のリンケージを統合する新しい複合トレーニングパラダイムであるFedSimを設計する。
論文 参考訳(メタデータ) (2021-06-11T11:09:53Z) - FedV: Privacy-Preserving Federated Learning over Vertically Partitioned
Data [12.815996963583641]
複数当事者間の機械学習(ML)モデルの共同トレーニングを可能にするために、フェデレーションラーニング(FL)が提案されている。
FedVは、広く使用されているいくつかのMLモデルの垂直設定におけるグラデーション計算をセキュアにするためのフレームワークである。
トレーニング時間の10%から70%、データ転送の80%から90%を、最先端のアプローチで削減できることを示した。
論文 参考訳(メタデータ) (2021-03-05T19:59:29Z) - Hybrid Differentially Private Federated Learning on Vertically
Partitioned Data [41.7896466307821]
垂直統合学習(VFL)のためのDPフレームワークであるHDP-VFLについて述べる。
我々は、VFLの中間結果(IR)が、コミュニケーション中にトレーニングデータのプライベート情報を漏洩させる方法について分析する。
数学的には、我々のアルゴリズムはVFLのユーティリティ保証を提供するだけでなく、マルチレベルプライバシも提供することを証明している。
論文 参考訳(メタデータ) (2020-09-06T16:06:04Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。