論文の概要: When Homomorphic Encryption Marries Secret Sharing: Secure Large-Scale
Sparse Logistic Regression and Applications in Risk Control
- arxiv url: http://arxiv.org/abs/2008.08753v2
- Date: Mon, 31 May 2021 08:50:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 04:08:46.660024
- Title: When Homomorphic Encryption Marries Secret Sharing: Secure Large-Scale
Sparse Logistic Regression and Applications in Risk Control
- Title(参考訳): 暗号の均一化と秘密共有: 大規模疎対物的回帰とリスク管理への応用
- Authors: Chaochao Chen, Jun Zhou, Li Wang, Xibin Wu, Wenjing Fang, Jin Tan, Lei
Wang, Alex X. Liu, Hao Wang, Cheng Hong
- Abstract要約: ロジスティック回帰(LR)は、その効率性、堅牢性、解釈可能性のために業界で最も広く使われている機械学習モデルである。
既存の作業の多くは、セキュアLRを構築するために、ホモモルフィック暗号化(HE)またはシークレット共有(SS)を使用する。
まず, HEとSSを組み合わせたCAESARを用いて, 大規模スパースロジスティック回帰モデルの構築を行う。
- 参考スコア(独自算出の注目度): 34.96676558272596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Logistic Regression (LR) is the most widely used machine learning model in
industry for its efficiency, robustness, and interpretability. Due to the
problem of data isolation and the requirement of high model performance, many
applications in industry call for building a secure and efficient LR model for
multiple parties. Most existing work uses either Homomorphic Encryption (HE) or
Secret Sharing (SS) to build secure LR. HE based methods can deal with
high-dimensional sparse features, but they incur potential security risks. SS
based methods have provable security, but they have efficiency issue under
high-dimensional sparse features. In this paper, we first present CAESAR, which
combines HE and SS to build secure large-scale sparse logistic regression model
and achieves both efficiency and security. We then present the distributed
implementation of CAESAR for scalability requirement. We have deployed CAESAR
in a risk control task and conducted comprehensive experiments. Our
experimental results show that CAESAR improves the state-of-the-art model by
around 130 times.
- Abstract(参考訳): ロジスティック回帰(LR)は、その効率性、堅牢性、解釈可能性のために業界で最も広く使われている機械学習モデルである。
データ分離の問題と高モデル性能の要求により、業界における多くのアプリケーションは、複数のパーティに対してセキュアで効率的なLRモデルを構築することを求めている。
既存の作業の多くは、セキュアLRを構築するために、ホモモルフィック暗号化(HE)またはシークレット共有(SS)を使用する。
HEベースの手法は、高次元のスパース機能を扱うことができるが、潜在的なセキュリティリスクを引き起こす。
ssベースの手法はセキュリティを証明できるが、高次元のスパース機能では効率が問題となる。
本稿ではまず,HEとSSを組み合わせた大規模疎対数回帰モデルの構築と,効率とセキュリティの両立を実現するCAESARを提案する。
次に、スケーラビリティ要求のためのCAESARの分散実装について述べる。
我々はCAESARをリスク管理タスクに配置し、総合的な実験を行った。
実験の結果,CAESARは最先端モデルを約130倍改善した。
関連論文リスト
- FRAG: Toward Federated Vector Database Management for Collaborative and Secure Retrieval-Augmented Generation [1.3824176915623292]
本稿では,検索集約システム (RAG) のニーズの増大に対応する新しいデータベース管理パラダイムである textitFederated Retrieval-Augmented Generation (FRAG) を紹介する。
FRAGは、ANN(Approximate $k$-Nearest Neighbor)による、暗号化されたクエリベクタと分散ベクトルデータベースに格納された暗号化データ検索を相互に行うことができる。
論文 参考訳(メタデータ) (2024-10-17T06:57:29Z) - Active Learning for Robust and Representative LLM Generation in Safety-Critical Scenarios [32.16984263644299]
大きな言語モデル(LLM)は、安全対策のための貴重なデータを生成することができるが、しばしば分布バイアスを示す。
LLM生成を導くために,アクティブラーニングとクラスタリングを統合した新しいフレームワークを提案する。
この結果から,提案フレームワークは,基礎となるデータ分布の事前知識を必要とせずに,より代表的な安全シナリオを生成できることが示唆された。
論文 参考訳(メタデータ) (2024-10-14T21:48:14Z) - A novel agent with formal goal-reaching guarantees: an experimental study with a mobile robot [0.0]
強化学習 (Reinforcement Learning, RL) は, ロボット工学における多くの課題に対して有効かつ便利であることが示されている。
この研究は、Crytic As Lyapunov Function(CALF)と呼ばれる新しい安全なモデルフリーRLエージェントを提示する。
論文 参考訳(メタデータ) (2024-09-23T10:04:28Z) - Diffusion Models for Offline Multi-agent Reinforcement Learning with Safety Constraints [0.0]
マルチエージェント強化学習パラダイムに拡散モデルを統合する革新的なフレームワークを導入する。
このアプローチは、協調動作をモデル化しながらリスク軽減を通じて、複数のエージェントが取るべき行動の安全性を特に向上させる。
論文 参考訳(メタデータ) (2024-06-30T16:05:31Z) - SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large Language Models [107.82336341926134]
SALAD-Benchは、大規模言語モデル(LLM)を評価するために特別に設計された安全ベンチマークである。
それは、その大規模な、豊富な多様性、三つのレベルにまたがる複雑な分類、多目的機能を通じて、従来のベンチマークを超越している。
論文 参考訳(メタデータ) (2024-02-07T17:33:54Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Online Safety Property Collection and Refinement for Safe Deep
Reinforcement Learning in Mapless Navigation [79.89605349842569]
オンラインプロパティのコレクション・リファインメント(CROP)フレームワークをトレーニング時にプロパティを設計するために導入する。
CROPは、安全でない相互作用を識別し、安全特性を形成するためにコストシグナルを使用する。
本手法をいくつかのロボットマップレスナビゲーションタスクで評価し,CROPで計算した違反量によって,従来のSafe DRL手法よりも高いリターンと低いリターンが得られることを示す。
論文 参考訳(メタデータ) (2023-02-13T21:19:36Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。