論文の概要: When Homomorphic Encryption Marries Secret Sharing: Secure Large-Scale
Sparse Logistic Regression and Applications in Risk Control
- arxiv url: http://arxiv.org/abs/2008.08753v2
- Date: Mon, 31 May 2021 08:50:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 04:08:46.660024
- Title: When Homomorphic Encryption Marries Secret Sharing: Secure Large-Scale
Sparse Logistic Regression and Applications in Risk Control
- Title(参考訳): 暗号の均一化と秘密共有: 大規模疎対物的回帰とリスク管理への応用
- Authors: Chaochao Chen, Jun Zhou, Li Wang, Xibin Wu, Wenjing Fang, Jin Tan, Lei
Wang, Alex X. Liu, Hao Wang, Cheng Hong
- Abstract要約: ロジスティック回帰(LR)は、その効率性、堅牢性、解釈可能性のために業界で最も広く使われている機械学習モデルである。
既存の作業の多くは、セキュアLRを構築するために、ホモモルフィック暗号化(HE)またはシークレット共有(SS)を使用する。
まず, HEとSSを組み合わせたCAESARを用いて, 大規模スパースロジスティック回帰モデルの構築を行う。
- 参考スコア(独自算出の注目度): 34.96676558272596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Logistic Regression (LR) is the most widely used machine learning model in
industry for its efficiency, robustness, and interpretability. Due to the
problem of data isolation and the requirement of high model performance, many
applications in industry call for building a secure and efficient LR model for
multiple parties. Most existing work uses either Homomorphic Encryption (HE) or
Secret Sharing (SS) to build secure LR. HE based methods can deal with
high-dimensional sparse features, but they incur potential security risks. SS
based methods have provable security, but they have efficiency issue under
high-dimensional sparse features. In this paper, we first present CAESAR, which
combines HE and SS to build secure large-scale sparse logistic regression model
and achieves both efficiency and security. We then present the distributed
implementation of CAESAR for scalability requirement. We have deployed CAESAR
in a risk control task and conducted comprehensive experiments. Our
experimental results show that CAESAR improves the state-of-the-art model by
around 130 times.
- Abstract(参考訳): ロジスティック回帰(LR)は、その効率性、堅牢性、解釈可能性のために業界で最も広く使われている機械学習モデルである。
データ分離の問題と高モデル性能の要求により、業界における多くのアプリケーションは、複数のパーティに対してセキュアで効率的なLRモデルを構築することを求めている。
既存の作業の多くは、セキュアLRを構築するために、ホモモルフィック暗号化(HE)またはシークレット共有(SS)を使用する。
HEベースの手法は、高次元のスパース機能を扱うことができるが、潜在的なセキュリティリスクを引き起こす。
ssベースの手法はセキュリティを証明できるが、高次元のスパース機能では効率が問題となる。
本稿ではまず,HEとSSを組み合わせた大規模疎対数回帰モデルの構築と,効率とセキュリティの両立を実現するCAESARを提案する。
次に、スケーラビリティ要求のためのCAESARの分散実装について述べる。
我々はCAESARをリスク管理タスクに配置し、総合的な実験を行った。
実験の結果,CAESARは最先端モデルを約130倍改善した。
関連論文リスト
- SafeRoute: Adaptive Model Selection for Efficient and Accurate Safety Guardrails in Large Language Models [63.63254955809224]
本稿では,難しい例と簡単な例を区別するバイナリルータを提案する。
提案手法は、ルータが考慮するデータに対して、より大きな安全ガードモデルを選択的に適用し、精度を維持しながら効率を向上する。
複数のベンチマークデータセットによる実験結果から,適応モデルの選択により,計算コストと安全性性能のトレードオフが著しく向上することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:51:17Z) - Scalable Safe Multi-Agent Reinforcement Learning for Multi-Agent System [1.0124625066746598]
報酬形成のみに依存する既存のマルチエージェント強化学習(MARL)アルゴリズムは、安全性を確保するのに有効ではない。
本稿では,MARL手法の安全性とスケーラビリティを高めるために,スケーラブルセーフMARL(Scalable Safe MARL)を提案する。
SS-MARLは,ベースラインに比べて最適性と安全性のトレードオフが良好であることを示し,そのスケーラビリティは多数のエージェントを持つシナリオにおいて,最新の手法よりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2025-01-23T15:01:19Z) - EVA-S2PLoR: A Secure Element-wise Multiplication Meets Logistic Regression on Heterogeneous Database [2.1010315462623184]
本稿では, 効率よく, 検証し, 正確な2次元ロジスティック回帰フレームワーク(EVA-S2PLoR)を提案する。
我々のフレームワークは、主にセキュアな2次元ベクトル要素ワイド乗算と、データディスガージング技術に基づく乗算、相反関数、シグモイド関数を含む。
論文 参考訳(メタデータ) (2025-01-09T13:19:59Z) - A novel agent with formal goal-reaching guarantees: an experimental study with a mobile robot [0.0]
強化学習 (Reinforcement Learning, RL) は, ロボット工学における多くの課題に対して有効かつ便利であることが示されている。
この研究は、Crytic As Lyapunov Function(CALF)と呼ばれる新しい安全なモデルフリーRLエージェントを提示する。
論文 参考訳(メタデータ) (2024-09-23T10:04:28Z) - Diffusion Models for Offline Multi-agent Reinforcement Learning with Safety Constraints [0.0]
マルチエージェント強化学習パラダイムに拡散モデルを統合する革新的なフレームワークを導入する。
このアプローチは、協調動作をモデル化しながらリスク軽減を通じて、複数のエージェントが取るべき行動の安全性を特に向上させる。
論文 参考訳(メタデータ) (2024-06-30T16:05:31Z) - SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large Language Models [107.82336341926134]
SALAD-Benchは、大規模言語モデル(LLM)を評価するために特別に設計された安全ベンチマークである。
それは、その大規模な、豊富な多様性、三つのレベルにまたがる複雑な分類、多目的機能を通じて、従来のベンチマークを超越している。
論文 参考訳(メタデータ) (2024-02-07T17:33:54Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。