論文の概要: When Homomorphic Encryption Marries Secret Sharing: Secure Large-Scale
Sparse Logistic Regression and Applications in Risk Control
- arxiv url: http://arxiv.org/abs/2008.08753v2
- Date: Mon, 31 May 2021 08:50:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 04:08:46.660024
- Title: When Homomorphic Encryption Marries Secret Sharing: Secure Large-Scale
Sparse Logistic Regression and Applications in Risk Control
- Title(参考訳): 暗号の均一化と秘密共有: 大規模疎対物的回帰とリスク管理への応用
- Authors: Chaochao Chen, Jun Zhou, Li Wang, Xibin Wu, Wenjing Fang, Jin Tan, Lei
Wang, Alex X. Liu, Hao Wang, Cheng Hong
- Abstract要約: ロジスティック回帰(LR)は、その効率性、堅牢性、解釈可能性のために業界で最も広く使われている機械学習モデルである。
既存の作業の多くは、セキュアLRを構築するために、ホモモルフィック暗号化(HE)またはシークレット共有(SS)を使用する。
まず, HEとSSを組み合わせたCAESARを用いて, 大規模スパースロジスティック回帰モデルの構築を行う。
- 参考スコア(独自算出の注目度): 34.96676558272596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Logistic Regression (LR) is the most widely used machine learning model in
industry for its efficiency, robustness, and interpretability. Due to the
problem of data isolation and the requirement of high model performance, many
applications in industry call for building a secure and efficient LR model for
multiple parties. Most existing work uses either Homomorphic Encryption (HE) or
Secret Sharing (SS) to build secure LR. HE based methods can deal with
high-dimensional sparse features, but they incur potential security risks. SS
based methods have provable security, but they have efficiency issue under
high-dimensional sparse features. In this paper, we first present CAESAR, which
combines HE and SS to build secure large-scale sparse logistic regression model
and achieves both efficiency and security. We then present the distributed
implementation of CAESAR for scalability requirement. We have deployed CAESAR
in a risk control task and conducted comprehensive experiments. Our
experimental results show that CAESAR improves the state-of-the-art model by
around 130 times.
- Abstract(参考訳): ロジスティック回帰(LR)は、その効率性、堅牢性、解釈可能性のために業界で最も広く使われている機械学習モデルである。
データ分離の問題と高モデル性能の要求により、業界における多くのアプリケーションは、複数のパーティに対してセキュアで効率的なLRモデルを構築することを求めている。
既存の作業の多くは、セキュアLRを構築するために、ホモモルフィック暗号化(HE)またはシークレット共有(SS)を使用する。
HEベースの手法は、高次元のスパース機能を扱うことができるが、潜在的なセキュリティリスクを引き起こす。
ssベースの手法はセキュリティを証明できるが、高次元のスパース機能では効率が問題となる。
本稿ではまず,HEとSSを組み合わせた大規模疎対数回帰モデルの構築と,効率とセキュリティの両立を実現するCAESARを提案する。
次に、スケーラビリティ要求のためのCAESARの分散実装について述べる。
我々はCAESARをリスク管理タスクに配置し、総合的な実験を行った。
実験の結果,CAESARは最先端モデルを約130倍改善した。
関連論文リスト
- SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large
Language Models [112.46733790998024]
SALAD-Benchは、大規模言語モデル(LLM)を評価するために特別に設計された安全ベンチマークである。
それは、その大規模な、豊富な多様性、三つのレベルにまたがる複雑な分類、多目的機能を通じて、従来のベンチマークを超越している。
論文 参考訳(メタデータ) (2024-02-07T17:33:54Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - SABLE: Secure And Byzantine robust LEarning [9.455980760111498]
ホモモルフィック暗号化(HE)は、分散学習におけるプライバシを保護するための主要なセキュリティ対策として登場した。
本稿では,最初の同型およびビザンチン頑健な分散学習アルゴリズムであるSABLEを紹介する。
論文 参考訳(メタデータ) (2023-09-11T11:54:42Z) - Model-based Dynamic Shielding for Safe and Efficient Multi-Agent
Reinforcement Learning [7.103977648997475]
MARL(Multi-Agent Reinforcement Learning)は、報酬を最大化するが、学習と展開フェーズにおいて安全保証を持たないポリシーを発見する。
MARLアルゴリズム設計をサポートするモデルベース動的シールド(MBDS)。
論文 参考訳(メタデータ) (2023-04-13T06:08:10Z) - Safe and Sample-efficient Reinforcement Learning for Clustered Dynamic
Environments [4.111899441919165]
本研究は,2つの課題に対処する安全かつサンプル効率の強化学習(RL)フレームワークを提案する。
我々は、セーフセットアルゴリズム(SSA)を用いて、名目制御の監視と修正を行い、クラスタリングされた動的環境におけるSSA+RLの評価を行う。
我々のフレームワークは、トレーニング中の他の安全なRL手法と比較して安全性が向上し、エピソードが大幅に少ないタスクを解決できる。
論文 参考訳(メタデータ) (2023-03-24T20:29:17Z) - Online Safety Property Collection and Refinement for Safe Deep
Reinforcement Learning in Mapless Navigation [79.89605349842569]
オンラインプロパティのコレクション・リファインメント(CROP)フレームワークをトレーニング時にプロパティを設計するために導入する。
CROPは、安全でない相互作用を識別し、安全特性を形成するためにコストシグナルを使用する。
本手法をいくつかのロボットマップレスナビゲーションタスクで評価し,CROPで計算した違反量によって,従来のSafe DRL手法よりも高いリターンと低いリターンが得られることを示す。
論文 参考訳(メタデータ) (2023-02-13T21:19:36Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - Safe Model-Based Reinforcement Learning Using Robust Control Barrier
Functions [43.713259595810854]
安全に対処する一般的なアプローチとして、安全層が追加され、RLアクションを安全な一連のアクションに投影する。
本稿では,モデルベースRLフレームワークにおけるロバスト制御バリア機能層としての安全性について述べる。
論文 参考訳(メタデータ) (2021-10-11T17:00:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。