論文の概要: CECILIA: Comprehensive Secure Machine Learning Framework
- arxiv url: http://arxiv.org/abs/2202.03023v4
- Date: Wed, 16 Oct 2024 15:02:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:39:00.056701
- Title: CECILIA: Comprehensive Secure Machine Learning Framework
- Title(参考訳): CECILIA: 総合的なセキュア機械学習フレームワーク
- Authors: Ali Burak Ünal, Nico Pfeifer, Mete Akgün,
- Abstract要約: 複雑な操作をプライベートに行えるPPビルディングブロックを提供するセキュアな3パーティフレームワークであるCECILIAを提案する。
CECILIAには2つの新しい方法があり、これは秘密のグラム行列の逆二乗根と秘密の値のパワーに引き上げられた公的な基底の正確な指数関数である。
このフレームワークは、他のMLアルゴリズムと、さらなる計算をプライベートに計算可能にすることを約束している。
- 参考スコア(独自算出の注目度): 2.949446809950691
- License:
- Abstract: Since ML algorithms have proven their success in many different applications, there is also a big interest in privacy preserving (PP) ML methods for building models on sensitive data. Moreover, the increase in the number of data sources and the high computational power required by those algorithms force individuals to outsource the training and/or the inference of a ML model to the clouds providing such services. To address this, we propose a secure 3-party computation framework, CECILIA, offering PP building blocks to enable complex operations privately. In addition to the adapted and common operations like addition and multiplication, it offers multiplexer, most significant bit and modulus conversion. The first two are novel in terms of methodology and the last one is novel in terms of both functionality and methodology. CECILIA also has two complex novel methods, which are the exact exponential of a public base raised to the power of a secret value and the inverse square root of a secret Gram matrix. We use CECILIA to realize the private inference on pre-trained RKNs, which require more complex operations than most other DNNs, on the structural classification of proteins as the first study ever accomplishing the PP inference on RKNs. In addition to the successful private computation of basic building blocks, the results demonstrate that we perform the exact and fully private exponential computation, which is done by approximation in the literature so far. Moreover, they also show that we compute the exact inverse square root of a secret Gram matrix up to a certain privacy level, which has not been addressed in the literature at all. We also analyze the scalability of CECILIA to various settings on a synthetic dataset. The framework shows a great promise to make other ML algorithms as well as further computations privately computable by the building blocks of the framework.
- Abstract(参考訳): MLアルゴリズムは多くの異なるアプリケーションで成功を証明しているため、機密データ上にモデルを構築するためのプライバシ保護(PP)MLメソッドにも大きな関心がある。
さらに、これらのアルゴリズムが必要とするデータソースの数の増加と高い計算能力により、個人は機械学習モデルのトレーニングおよび/または推論を、そのようなサービスを提供するクラウドにアウトソースせざるを得なくなる。
そこで我々は,複雑な操作をプライベートに行えるPPビルディングブロックを提供するセキュアな3要素計算フレームワークであるCECILIAを提案する。
加算や乗算のような適応的で一般的な操作に加えて、多重化、最も重要なビット、およびモジュラー変換を提供する。
最初の2つは方法論に関して斬新であり、最後の1つは機能と方法論の両方に関して斬新である。
CECILIAはまた、2つの複雑な新しい方法を持ち、これは秘密のグラム行列の秘密の値と逆の平方根の力に引き上げられた公開基底の正確な指数関数である。
我々はCECILIAを用いて、他のほとんどのDNNよりも複雑な操作を必要とする事前訓練されたRKNに対するプライベート推論を実現し、RKNに対するPP推論を初めて達成した研究としてタンパク質の構造分類を行った。
基本構成ブロックのプライベートな計算が成功したことに加えて、これまでの文献で近似された完全かつ完全なプライベートな指数計算を行うことが実証された。
さらに、秘密のグラム行列の正逆平方根を特定のプライバシーレベルまで計算することを示したが、これは文献では触れられていない。
また、CECILIAのスケーラビリティを合成データセット上で様々な設定に解析する。
このフレームワークは、他のMLアルゴリズムと、フレームワークのビルディングブロックによってプライベートに計算可能なさらなる計算を可能にすることを約束している。
関連論文リスト
- OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [70.72097493954067]
コードのための大規模言語モデル(LLM)は、コード生成、推論、タスク、エージェントシステムなど、さまざまな領域で必須になっている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの'オープンクックブック'として機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - Encrypted system identification as-a-service via reliable encrypted matrix inversion [0.0]
暗号化された計算は、多数のアプリケーションドメインにわたる有望な道を開く。
特に、算術的同型暗号化はクラウドベースの計算サービスに自然に適合する。
本稿では,少なくとも2乗問題に対する信頼性の高い暗号化ソリューションにより,暗号化されたシステム識別サービスを提案する。
論文 参考訳(メタデータ) (2024-10-27T20:00:04Z) - Secure and Efficient General Matrix Multiplication On Cloud Using Homomorphic Encryption [21.253885519048016]
ホモモルフィック暗号化(HE)は、機密性の高いアプリケーションのプライバシーとセキュリティを確保する効果的なツールとして登場した。
HEベースの計算を採用する上での大きな障害のひとつは、計算コストの過大さである。
論文 参考訳(メタデータ) (2024-05-03T16:50:02Z) - Privacy-aware Berrut Approximated Coded Computing for Federated Learning [1.2084539012992408]
フェデレートラーニングスキームにおけるプライバシを保証するためのソリューションを提案する。
本提案は,Secret Sharing設定に適応したBerrut Approximated Coded Computingに基づく。
論文 参考訳(メタデータ) (2024-05-02T20:03:13Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - Deep Active Ensemble Sampling For Image Classification [8.31483061185317]
アクティブラーニングフレームワークは、最も有益なデータポイントのラベル付けを積極的に要求することで、データアノテーションのコストを削減することを目的としている。
提案手法には、不確実性に基づく手法、幾何学的手法、不確実性に基づく手法と幾何学的手法の暗黙の組み合わせなどがある。
本稿では, サンプル選択戦略における効率的な探索・探索トレードオフを実現するために, 不確実性に基づくフレームワークと幾何学的フレームワークの両方の最近の進歩を革新的に統合する。
本フレームワークは,(1)正確な後続推定,(2)計算オーバーヘッドと高い精度のトレードオフの2つの利点を提供する。
論文 参考訳(メタデータ) (2022-10-11T20:20:20Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - HD-cos Networks: Efficient Neural Architectures for Secure Multi-Party
Computation [26.67099154998755]
マルチパーティ計算(MPC、Multi-party calculation)は、暗号化の分野の一つで、複数の非解決パーティが関数を安全に計算するためのプロトコルを実行する。
MPC設定下でニューラルネットワークのトレーニングと推論について検討する。
どちらの手法も、MPC設定下での強力な理論的モチベーションと効率的な計算を享受できることを示す。
論文 参考訳(メタデータ) (2021-10-28T21:15:11Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。