論文の概要: Sharing without Showing: Secure Cloud Analytics with Trusted Execution Environments
- arxiv url: http://arxiv.org/abs/2410.10574v1
- Date: Mon, 14 Oct 2024 14:50:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-29 20:45:18.319571
- Title: Sharing without Showing: Secure Cloud Analytics with Trusted Execution Environments
- Title(参考訳): 表示のない共有: 信頼できる実行環境を備えたセキュアなクラウド分析
- Authors: Marcus Birgersson, Cyrille Artho, Musard Balliu,
- Abstract要約: 多くのアプリケーションは、機密性を保持しながら、複数のユーザのデータに対する計算の恩恵を受ける。
本稿では,複数のユーザのデータを相互に信頼できない方法で集約する手法を提案する。
我々のソリューションは、秘密データをデータ所有者のキーで暗号化し、どこでも保存できるTrusted Execution Environment(Intel SGX)を使用することです。
- 参考スコア(独自算出の注目度): 3.360457684855856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many applications benefit from computations over the data of multiple users while preserving confidentiality. We present a solution where multiple mutually distrusting users' data can be aggregated with an acceptable overhead, while allowing users to be added to the system at any time without re-encrypting data. Our solution to this problem is to use a Trusted Execution Environment (Intel SGX) for the computation, while the confidential data is encrypted with the data owner's key and can be stored anywhere, without trust in the service provider. We do not require the user to be online during the computation phase and do not require a trusted party to store data in plain text. Still, the computation can only be carried out if the data owner explicitly has given permission. Experiments using common functions such as the sum, least square fit, histogram, and SVM classification, exhibit an average overhead of $1.6 \times$. In addition to these performance experiments, we present a use case for computing the distributions of taxis in a city without revealing the position of any other taxi to the other parties.
- Abstract(参考訳): 多くのアプリケーションは、機密性を保持しながら、複数のユーザのデータに対する計算の恩恵を受ける。
本稿では,複数のユーザのデータを相互に信頼できない状態で集約し,データを再暗号化することなく,ユーザをいつでもシステムに追加することが可能なソリューションを提案する。
この問題に対する当社のソリューションは,データ所有者のキーで機密データを暗号化し,サービスプロバイダを信頼せずにどこにでも保存できるような,信頼された実行環境(Intel SGX)を計算に使用することです。
私たちは、ユーザが計算フェーズ中にオンラインになる必要はなく、信頼された第三者がデータをプレーンテキストに格納する必要もありません。
それでも、データ所有者が明示的に許可を与えている場合のみ、計算を実行することができる。
和、最小二乗フィット、ヒストグラム、SVM分類などの共通関数を用いた実験では平均オーバーヘッドは1.6 \times$である。
これらの性能実験に加えて、他のタクシーの位置を明らかにすることなく、市内のタクシーの分布を計算するためのユースケースを提案する。
関連論文リスト
- Experimental Secure Multiparty Computation from Quantum Oblivious Transfer with Bit Commitment [13.244842672008811]
不安定な転送をプリミティブ関数として使用することで、セキュアなマルチパーティ計算を実現することができる。
本稿では,量子セキュアな量子オブリバスト転送プロトコルの実験的実装について述べる。
実験では、2つの銀行が、他のデータを公開することなく、一般的な不審なアカウントを特定できる。
論文 参考訳(メタデータ) (2024-11-07T09:29:12Z) - DataSeal: Ensuring the Verifiability of Private Computation on Encrypted Data [14.21750921409931]
我々は,アルゴリズムベースのフォールトトレランス(ABFT)手法の低オーバーヘッドと完全同型暗号化(FHE)の秘密性を組み合わせたDataSealを紹介する。
DataSealは、MAC、ZKP、TEEを含む他の技術よりも、FHEの計算検証性を提供するためのオーバーヘッドをはるかに少なくする。
論文 参考訳(メタデータ) (2024-10-19T21:19:39Z) - Differential Privacy on Trust Graphs [54.55190841518906]
差分プライバシー(DP)は、各当事者がそのデータで他の当事者の(既知の)サブセットのみを信頼するマルチパーティ環境で研究する。
我々は、DPのローカルモデルよりもはるかに優れたプライバシーとユーティリティのトレードオフを持つ集約のためのDPアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-10-15T20:31:04Z) - Nebula: Efficient, Private and Accurate Histogram Estimation [21.514019328704926]
本稿では,クライアント間で分散したデータの個人的ヒストグラムの差分推定システムであるNebulaを提案する。
Nebulaは、クライアントがデータをローカルにサブサンプルし、エンコードすることで、信頼できないサーバが、差分プライバシー保証を満たすためのアグリゲーションしきい値を満たすデータ値のみを学ぶことができる。
論文 参考訳(メタデータ) (2024-09-15T09:55:18Z) - Are LLM-based methods good enough for detecting unfair terms of service? [67.49487557224415]
大規模言語モデル(LLM)は、長いテキストベースの文書を解析するのに適している。
プライバシーポリシーの集合に対して個別に適用された12の質問からなるデータセットを構築します。
いくつかのオープンソースモデルは、いくつかの商用モデルと比較して高い精度を提供できる。
論文 参考訳(メタデータ) (2024-08-24T09:26:59Z) - Scaling Laws for Data Filtering -- Data Curation cannot be Compute Agnostic [99.3682210827572]
ビジョン言語モデル(VLM)は、慎重にキュレートされたWebデータセット上で数千のGPU時間でトレーニングされる。
データキュレーション戦略は通常、トレーニングに利用可能な計算を知らないように開発されている。
ウェブデータの非均一性を考慮したニューラルスケーリング法則を導入する。
論文 参考訳(メタデータ) (2024-04-10T17:27:54Z) - Privacy-Preserving Polynomial Computing Over Distributed Data [1.7353033893421306]
ユーザは、分散ソースから取得したデータと同様に、自身のデータを使って関数を計算することを目指している。
これを実現するために、ユーザは$N$の分散ワーカーの支援を登録する。
ラグランジュ符号化に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-09-17T16:04:28Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - BeeTrace: A Unified Platform for Secure Contact Tracing that Breaks Data
Silos [73.84437456144994]
接触追跡は、新型コロナウイルスなどの感染症の拡散を制御する重要な方法である。
現在のソリューションでは、ビジネスデータベースや個々のデジタルデバイスに格納された大量のデータを利用できません。
データサイロを破り、プライバシーの目標を保証するために最先端の暗号化プロトコルをデプロイする統合プラットフォームであるBeeTraceを提案する。
論文 参考訳(メタデータ) (2020-07-05T10:33:45Z) - Secure Summation via Subset Sums: A New Primitive for Privacy-Preserving
Distributed Machine Learning [15.275126264550943]
サミネーションは計算手段、カウント、ミニバッチ勾配にとって重要なプリミティブである。
多くの場合、データはプライバシーに敏感であり、中央サーバーでは収集できない。
分散和と計算プライバシ保証の既存のソリューションは、現実の環境で満たされない信頼や接続の前提を定めている。
本稿では,悪意のあるサーバと2つの正直なクライアントの存在下で機能する分散和法であるSecure Summation via Subset Sums (S5)を提案する。
論文 参考訳(メタデータ) (2019-06-27T23:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。