論文の概要: Online Efficient Secure Logistic Regression based on Function Secret Sharing
- arxiv url: http://arxiv.org/abs/2309.09486v1
- Date: Mon, 18 Sep 2023 04:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 04:30:16.316705
- Title: Online Efficient Secure Logistic Regression based on Function Secret Sharing
- Title(参考訳): 関数秘密共有に基づくオンライン安全なロジスティック回帰
- Authors: Jing Liu, Jamie Cui, Cen Chen,
- Abstract要約: 機能秘密共有(FSS)に基づくプライバシー保護ロジスティック回帰のためのオンライン効率的なプロトコルを提案する。
我々のプロトコルは、サードパーティのディーラーの存在を前提とした2つの非凝固サーバで設計されている。
我々は,Sigmoid 関数の精度と MPC フレンドリな代替案を提案し,ロジスティック回帰学習プロセスを関数秘密共有ゲートにカプセル化する。
- 参考スコア(独自算出の注目度): 15.764294489590041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Logistic regression is an algorithm widely used for binary classification in various real-world applications such as fraud detection, medical diagnosis, and recommendation systems. However, training a logistic regression model with data from different parties raises privacy concerns. Secure Multi-Party Computation (MPC) is a cryptographic tool that allows multiple parties to train a logistic regression model jointly without compromising privacy. The efficiency of the online training phase becomes crucial when dealing with large-scale data in practice. In this paper, we propose an online efficient protocol for privacy-preserving logistic regression based on Function Secret Sharing (FSS). Our protocols are designed in the two non-colluding servers setting and assume the existence of a third-party dealer who only poses correlated randomness to the computing parties. During the online phase, two servers jointly train a logistic regression model on their private data by utilizing pre-generated correlated randomness. Furthermore, we propose accurate and MPC-friendly alternatives to the sigmoid function and encapsulate the logistic regression training process into a function secret sharing gate. The online communication overhead significantly decreases compared with the traditional secure logistic regression training based on secret sharing. We provide both theoretical and experimental analyses to demonstrate the efficiency and effectiveness of our method.
- Abstract(参考訳): ロジスティック回帰(英: Logistic regression)は、不正検出、医療診断、レコメンデーションシステムなど、様々な現実世界の応用において二項分類に広く用いられているアルゴリズムである。
しかし、異なるパーティのデータでロジスティック回帰モデルをトレーニングすると、プライバシの懸念が高まる。
Secure Multi-Party Computation (MPC)は、複数のパーティがプライバシーを損なうことなく、ロジスティック回帰モデルを共同でトレーニングできる暗号化ツールである。
大規模データを扱う際には,オンライントレーニングフェーズの効率性が重要となる。
本稿では,FSS(Function Secret Sharing)に基づくプライバシー保護ロジスティック回帰のためのオンラインプロトコルを提案する。
我々のプロトコルは、2つの非解凍サーバで設計され、計算相手に相関するランダム性のみを示すサードパーティのディーラーの存在を前提としています。
オンラインフェーズでは、2つのサーバが、事前に生成された相関ランダム性を利用して、プライベートデータのロジスティック回帰モデルを共同でトレーニングする。
さらに,Sigmoid関数の高精度かつMPCフレンドリな代替手法を提案し,ロジスティック回帰学習プロセスを関数秘密共有ゲートにカプセル化する。
オンラインコミュニケーションのオーバーヘッドは、秘密共有に基づく従来の安全なロジスティック回帰トレーニングと比較して著しく減少する。
提案手法の有効性と有効性を示すため,理論的および実験的解析を行った。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - LFFR: Logistic Function For (multi-output) Regression [0.0]
我々は、複数出力の回帰問題に対処するために、プライバシー保護レグレッションに関する以前の作業を構築した。
複数の出力を処理するために、最初は単一出力のロジスティック回帰のために設計された新しいLFFRアルゴリズムを適用した。
複数の実世界のデータセットに対する評価は、我々の多出力LFFRアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T20:52:38Z) - Hawk: Accurate and Fast Privacy-Preserving Machine Learning Using Secure Lookup Table Computation [11.265356632908846]
直接的なデータ共有のない複数のエンティティからのデータに対する機械学習モデルのトレーニングは、ビジネス、法的、倫理的制約によって妨げられるようなアプリケーションをアンロックすることができる。
我々はロジスティック回帰モデルとニューラルネットワークモデルのための新しいプライバシ保護機械学習プロトコルの設計と実装を行う。
評価の結果,ロジスティック回帰プロトコルは最大9倍高速であり,ニューラルネットワークトレーニングはSecureMLの最大688倍高速であることがわかった。
論文 参考訳(メタデータ) (2024-03-26T00:51:12Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Coordinate Descent for Privacy-Preserving Multiparty Linear
Regression [0.5049057348282932]
我々は、FCDと呼ばれる新しい分散スキームであるFederated Coordinate Descentを紹介し、マルチパーティシナリオ下でこの問題に安全に対処する。
具体的には、セキュアな集約と追加の摂動により、(1)ローカル情報が他の当事者にリークされることがなく、(2)グローバルモデルパラメータがクラウドサーバに公開されることが保証される。
また,FCD方式は, 線形, リッジ, ラッソ回帰などの一般線形回帰に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-09-16T03:53:46Z) - The Power and Limitation of Pretraining-Finetuning for Linear Regression
under Covariate Shift [127.21287240963859]
本研究では,対象データに基づく事前学習と微調整を併用した伝達学習手法について検討する。
大規模な線形回帰インスタンスの場合、$O(N2)$ソースデータによる転送学習は、$N$ターゲットデータによる教師あり学習と同じくらい効果的である。
論文 参考訳(メタデータ) (2022-08-03T05:59:49Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Privacy-preserving Logistic Regression with Secret Sharing [0.0]
Newton-Raphson法を用いて秘密共有型プライバシー保護ロジスティック回帰プロトコルを提案する。
提案手法は,複数ソースからのロジスティック回帰を安全にトレーニングするために,大規模なデータセットを処理可能であることを示す。
論文 参考訳(メタデータ) (2021-05-14T14:53:50Z) - High Performance Logistic Regression for Privacy-Preserving Genome
Analysis [15.078027648304117]
本稿では、安全なロジスティック回帰学習プロトコルとその実装について、アクティベーション関数を安全に計算する新しいサブプロトコルを提案する。
本稿では,局所的なネットワークに分散した高次元ゲノムデータに基づいてロジスティック回帰モデルをトレーニングするための,最も高速なセキュアなマルチパーティ計算実装を提案する。
論文 参考訳(メタデータ) (2020-02-13T07:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。