論文の概要: CECILIA: Comprehensive Secure Machine Learning Framework
- arxiv url: http://arxiv.org/abs/2202.03023v1
- Date: Mon, 7 Feb 2022 09:27:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 02:23:03.290238
- Title: CECILIA: Comprehensive Secure Machine Learning Framework
- Title(参考訳): CECILIA: 包括的なセキュア機械学習フレームワーク
- Authors: Ali Burak \"Unal, Mete Akg\"un, Nico Pfeifer
- Abstract要約: 我々は,より複雑な操作をプライベートに行えるように,ビルディングブロックをプライバシ保護するセキュアな3パーティフレームワークであるCECILIAを提案する。
これらビルディングブロックのうち、2つの新しい手法があり、これは秘密のグラム行列の秘密値と逆2乗根の力に引き上げられた公開基底の正確な指数関数である。
このフレームワークは、他の機械学習アルゴリズムと、さらなる計算をプライベートに計算可能にすることを約束している。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since machine learning algorithms have proven their success in data mining
tasks, the data with sensitive information enforce privacy preserving machine
learning algorithms to emerge. Moreover, the increase in the number of data
sources and the high computational power required by those algorithms force
individuals to outsource the training and/or the inference of a machine
learning model to the clouds providing such services. To address this dilemma,
we propose a secure 3-party computation framework, CECILIA, offering privacy
preserving building blocks to enable more complex operations privately. Among
those building blocks, we have two novel methods, which are the exact
exponential of a public base raised to the power of a secret value and the
inverse square root of a secret Gram matrix. We employ CECILIA to realize the
private inference on pre-trained recurrent kernel networks, which require more
complex operations than other deep neural networks such as convolutional neural
networks, on the structural classification of proteins as the first study ever
accomplishing the privacy preserving inference on recurrent kernel networks.
The results demonstrate that we perform the exact and fully private exponential
computation, which is done by approximation in the literature so far. Moreover,
we can also perform the exact inverse square root of a secret Gram matrix
computation up to a certain privacy level, which has not been addressed in the
literature at all. We also analyze the scalability of CECILIA to various
settings on a synthetic dataset. The framework shows a great promise to make
other machine learning algorithms as well as further computations privately
computable by the building blocks of the framework.
- Abstract(参考訳): 機械学習アルゴリズムはデータマイニングタスクの成功を証明しているため、機密性の高い情報を持つデータは、機械学習アルゴリズムが出現するためのプライバシー保護を強制する。
さらに、これらのアルゴリズムが必要とするデータソースの数の増加と高い計算能力により、個人はトレーニングや機械学習モデルの推論を、そのようなサービスを提供するクラウドにアウトソースせざるを得なくなる。
このジレンマに対処するために,より複雑な操作をプライベートに行えるように,ビルディングブロックを保護したセキュアな3要素計算フレームワークであるCECILIAを提案する。
これらビルディングブロックのうち、2つの新しい手法があり、これは秘密のグラム行列の秘密値と逆2乗根の力に引き上げられた公開基底の正確な指数関数である。
我々はceciliaを用いて,畳み込みニューラルネットワークなど他の深層ニューラルネットワークよりも複雑な操作を必要とする事前学習されたリカレントカーネルネットワークにおけるプライバシ保存推論を実現した最初の研究として,タンパク質の構造的分類を行った。
以上の結果から,これまでの文献では近似法を用いて,完全かつ完全プライベートな指数関数計算を行った。
さらに、秘密のグラム行列計算の正確な逆2乗根を特定のプライバシーレベルまで実行することも可能であるが、これは文献では未解決である。
また、CECILIAのスケーラビリティを合成データセット上で様々な設定に解析する。
このフレームワークは、他の機械学習アルゴリズムと、フレームワークのビルディングブロックによってプライベートに計算可能なさらなる計算を可能にすることを約束している。
関連論文リスト
- An Empirical Study of Efficiency and Privacy of Federated Learning
Algorithms [2.994794762377111]
今日の世界では、IoTネットワークの急速な拡大とスマートデバイスの普及により、相当量の異種データが生成される。
このデータを効果的に扱うためには、プライバシーと効率の両立を保証するために高度なデータ処理技術が必要である。
フェデレーション学習は、モデルをローカルにトレーニングし、データをプライバシを保存するためにサーバに集約する分散学習手法として登場した。
論文 参考訳(メタデータ) (2023-12-24T00:13:41Z) - A Novel Neural Network-Based Federated Learning System for Imbalanced
and Non-IID Data [2.9642661320713555]
ほとんどの機械学習アルゴリズムは、様々なソースから収集される大量のデータに大きく依存している。
この問題に対処するため、研究者らはフェデレーション学習を導入し、クライアントデータのプライバシーを確保することによって予測モデルを学習した。
本研究では,ニューラルネットワークに基づくフェデレーション学習システムを提案する。
論文 参考訳(メタデータ) (2023-11-16T17:14:07Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Privacy-preserving machine learning with tensor networks [50.591267188664666]
テンソルネットワークアーキテクチャは、特にプライバシー保護機械学習に期待できる特性を持つことを示す。
まず、フィードフォワードニューラルネットワークに存在する新たなプライバシ脆弱性を説明し、それを合成および実世界のデータセットで説明する。
このような条件がテンソルネットワークアーキテクチャによって満たされていることを厳密に証明する。
論文 参考訳(メタデータ) (2022-02-24T19:04:35Z) - MORSE-STF: A Privacy Preserving Computation System [12.875477499515158]
MPCに基づくプライバシー保護機械学習フレームワークSecure-TFを提案する。
我々のフレームワークは、ロジスティック回帰、完全接続型ニューラルネットワーク、畳み込み型ニューラルネットワークなど、広く使われている機械学習モデルをサポートすることができる。
論文 参考訳(メタデータ) (2021-09-24T03:42:46Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - TenSEAL: A Library for Encrypted Tensor Operations Using Homomorphic
Encryption [0.0]
モノモルフィック暗号化を用いたプライバシー保護機械学習のためのオープンソースライブラリTenSEALを紹介します。
我々は,半メガバイト以下の通信を用いて,暗号化畳み込みニューラルネットワークを1秒以内で評価可能であることを示す。
論文 参考訳(メタデータ) (2021-04-07T14:32:38Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。