論文の概要: SECO: Secure Inference With Model Splitting Across Multi-Server Hierarchy
- arxiv url: http://arxiv.org/abs/2404.16232v1
- Date: Wed, 24 Apr 2024 22:24:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 15:17:42.270988
- Title: SECO: Secure Inference With Model Splitting Across Multi-Server Hierarchy
- Title(参考訳): SECO: マルチサーバ階層間のモデル分割によるセキュア推論
- Authors: Shuangyi Chen, Ashish Khisti,
- Abstract要約: これは、ユーザが入力データベクトルと複数のサーバノードを分割ニューラルネットワークモデルで配置して、予測を協調的に計算することを可能にするセキュアな推論プロトコルである。
我々は,マルチパーティ同型暗号化とマルチパーティのガーブロード回路方式を採用し,半正直なサーバの不正な多数に対してシステムを保護する。
- 参考スコア(独自算出の注目度): 19.481512634321376
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In the context of prediction-as-a-service, concerns about the privacy of the data and the model have been brought up and tackled via secure inference protocols. These protocols are built up by using single or multiple cryptographic tools designed under a variety of different security assumptions. In this paper, we introduce SECO, a secure inference protocol that enables a user holding an input data vector and multiple server nodes deployed with a split neural network model to collaboratively compute the prediction, without compromising either party's data privacy. We extend prior work on secure inference that requires the entire neural network model to be located on a single server node, to a multi-server hierarchy, where the user communicates to a gateway server node, which in turn communicates to remote server nodes. The inference task is split across the server nodes and must be performed over an encrypted copy of the data vector. We adopt multiparty homomorphic encryption and multiparty garbled circuit schemes, making the system secure against dishonest majority of semi-honest servers as well as protecting the partial model structure from the user. We evaluate SECO on multiple models, achieving the reduction of computation and communication cost for the user, making the protocol applicable to user's devices with limited resources.
- Abstract(参考訳): 予測・アズ・ア・サービスという文脈では、データとモデルのプライバシに関する懸念が提起され、セキュアな推論プロトコルによって取り組まれている。
これらのプロトコルは、さまざまなセキュリティ前提の下で設計された単一または複数の暗号化ツールを使用して構築される。
本稿では,ユーザが入力データベクトルと複数のサーバノードを分割ニューラルネットワークモデルで配置して,データのプライバシを損なうことなく,予測を協調的に計算することのできるセキュアな推論プロトコルSECOを紹介する。
我々は、ニューラルネットワークモデル全体を単一のサーバノード上に配置する必要のあるセキュアな推論に関する以前の作業を拡張し、マルチサーバ階層に拡張し、ユーザがゲートウェイサーバノードに通信し、リモートサーバノードに通信する。
推論タスクはサーバノードに分割され、データベクトルの暗号化されたコピーで実行されなければならない。
我々は,マルチパーティの同型暗号とマルチパーティのガーブロード回路方式を採用し,ユーザから部分モデル構造を保護するとともに,半正直なサーバの不正な大多数に対してシステムを保護する。
我々は,複数のモデル上でSECOを評価し,ユーザの計算コストと通信コストの低減を実現し,限られたリソースを持つユーザのデバイスに適用可能なプロトコルを提案する。
関連論文リスト
- CURE: Privacy-Preserving Split Learning Done Right [1.388112207221632]
このシナリオには、同型暗号化(HE)ベースのソリューションが存在するが、しばしば禁止的な計算負担を課す。
CUREは、モデルとデータのサーバ側のみを暗号化する新しいシステムである。
CUREは、実行時の16倍の効率で、平文SLと同等の精度を実現できることを示す。
論文 参考訳(メタデータ) (2024-07-12T04:10:19Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Secure Inference for Vertically Partitioned Data Using Multiparty Homomorphic Encryption [15.867269549049428]
本稿では,単一サーバノードと複数のクライアントノードを含む分散環境でのセキュアな推論プロトコルを提案する。
深層学習モデルがサーバノードにある間、観測されたデータベクトルは複数のクライアントノードに分割されていると仮定する。
論文 参考訳(メタデータ) (2024-05-06T18:17:27Z) - Boosting Communication Efficiency of Federated Learning's Secure Aggregation [22.943966056320424]
Federated Learning(FL)は、クライアントデバイスがモデルをローカルにトレーニングしてサーバに送信する分散機械学習アプローチである。
FLは、トレーニングされたモデルからセンシティブなクライアントデータを推論できる、モデル逆攻撃に対して脆弱である。
GoogleのSecure Aggregation(SecAgg)プロトコルは、各クライアントのトレーニング済みモデルを隠すことによって、このデータプライバシ問題に対処する。
このポスターでは、このオーバーヘッドを大幅に削減する通信効率の高いセキュアアグリゲーション(CESA)プロトコルを紹介している。
論文 参考訳(メタデータ) (2024-05-02T10:00:16Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - Towards Differentially Private Text Representations [52.64048365919954]
信頼できないサーバ環境下で新しいディープラーニングフレームワークを開発する。
乱数化モジュールに対して、プライバシーパラメータ$epsilon$の精度への影響を低減するために、新しいローカル微分プライベート(LDP)プロトコルを提案する。
分析と実験により、我々のフレームワークは、非プライベートなフレームワークや既存のLDPプロトコルと同等またはそれ以上のパフォーマンスを提供することが示された。
論文 参考訳(メタデータ) (2020-06-25T04:42:18Z) - Serdab: An IoT Framework for Partitioning Neural Networks Computation
across Multiple Enclaves [8.550865312110911]
Serdabは、複数のセキュアなエンクレーブにディープニューラルネットワークをデプロイするための分散オーケストレーションフレームワークである。
我々のパーティショニング戦略は、ニューラルネットワーク全体を1エンクレーブで実行する場合と比較して最大4.7倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2020-05-12T20:51:47Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。