論文の概要: Femur: A Flexible Framework for Fast and Secure Querying from Public Key-Value Store
- arxiv url: http://arxiv.org/abs/2503.05376v1
- Date: Fri, 07 Mar 2025 12:39:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:19:48.610477
- Title: Femur: A Flexible Framework for Fast and Secure Querying from Public Key-Value Store
- Title(参考訳): Femur: 公開キーバリューストアからの高速でセキュアなクエリのためのフレキシブルなフレームワーク
- Authors: Jiaoyi Zhang, Liqiang Peng, Mo Sha, Weiran Liu, Xiang Li, Sheng Wang, Feifei Li, Mingyu Gao, Huanchen Zhang,
- Abstract要約: 既存のPrivate Information Retrievalスキームは完全なセキュリティを提供するが、スケーラビリティに欠ける。
帯域制限環境に最適化された新しい可変レンジPIR方式を提案する。
実験によると、Femurはセキュリティレベルが同じであっても、最先端の設計よりも優れている。
- 参考スコア(独自算出の注目度): 17.375796500030916
- License:
- Abstract: With increasing demands for privacy, it becomes necessary to protect sensitive user query data when accessing public key-value databases. Existing Private Information Retrieval (PIR) schemes provide full security but suffer from poor scalability, limiting their applicability in large-scale deployment. We argue that in many real-world scenarios, a more practical solution should allow users to flexibly determine the privacy levels of their queries in a theoretically guided way, balancing security and performance based on specific needs. To formally provide provable guarantees, we introduce a novel concept of distance-based indistinguishability, which can facilitate users to comfortably relax their security requirements. We then design Femur, an efficient framework to securely query public key-value stores with flexible security and performance trade-offs. It uses a space-efficient learned index to convert query keys into storage locations, obfuscates these locations with extra noise provably derived by the distance-based indistinguishability theory, and sends the expanded range to the server. The server then adaptively utilizes the best scheme to retrieve data. We also propose a novel variable-range PIR scheme optimized for bandwidth-constrained environments. Experiments show that Femur outperforms the state-of-the-art designs even when ensuring the same full security level. When users are willing to relax their privacy requirements, Femur can further improve the performance gains to up to 163.9X, demonstrating an effective trade-off between security and performance.
- Abstract(参考訳): プライバシの要求が高まるにつれ、公開キーバリューデータベースにアクセスする際には、機密性の高いユーザクエリデータを保護する必要がある。
既存のプライベート情報検索(Private Information Retrieval, PIR)スキームは完全なセキュリティを提供するが、スケーラビリティの低下に悩まされ、大規模デプロイメントにおける適用性が制限される。
多くの現実のシナリオにおいて、ユーザーは特定のニーズに基づいてセキュリティとパフォーマンスのバランスを取りながら、理論的にガイドされた方法でクエリのプライバシレベルを柔軟に決定できる。
証明可能な保証を正式に提供するために,ユーザによるセキュリティ要件の緩和を容易にする,距離ベースの識別不能という新しい概念を導入する。
そして、フレキシブルなセキュリティとパフォーマンスのトレードオフで公開キーバリューストアをセキュアにクエリする効率的なフレームワークであるFemurを設計します。
空間効率のよい学習インデックスを使用して、クエリキーを格納場所に変換するとともに、距離ベースの識別不可能性理論によって証明された余分なノイズでこれらの位置を難読化し、拡張範囲をサーバに送信する。
そして、サーバは、データを取得するための最良のスキームを適応的に利用する。
また,帯域制限環境に最適化された新しい可変レンジPIR方式を提案する。
実験によると、Femurはセキュリティレベルが同じであっても、最先端の設計よりも優れている。
ユーザがプライバシ要件を緩和したい場合、Femurは最大163.9Xまでのパフォーマンス向上を実現し、セキュリティとパフォーマンスの効果的なトレードオフを示す。
関連論文リスト
- RLSA-PFL: Robust Lightweight Secure Aggregation with Model Inconsistency Detection in Privacy-Preserving Federated Learning [13.117628927803985]
フェデレートラーニング(FL)は、ローカルモデルを共有することで、中央サーバにプライベートデータを公開することなく、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
FLでは、敵が共有モデルパラメータから機密情報を推測する可能性のあるプライバシー上の脆弱性が報告されている。
本稿では,軽量な暗号プリミティブをプライバシリスクに利用したマスキングに基づくセキュアアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2025-02-13T06:01:09Z) - HOPE: Homomorphic Order-Preserving Encryption for Outsourced Databases -- A Stateless Approach [1.1701842638497677]
Homomorphic OPE(Homomorphic OPE)は、クライアント側のストレージを排除し、クエリ実行中に追加のクライアントサーバ間のインタラクションを回避する新しいOPEスキームである。
我々は、広く受け入れられているIND-OCPAモデルの下で、HOPEの正式な暗号解析を行い、その安全性を証明した。
論文 参考訳(メタデータ) (2024-11-26T00:38:46Z) - Position: On-Premises LLM Deployment Demands a Middle Path: Preserving Privacy Without Sacrificing Model Confidentiality [18.575663556525864]
ユーザ制御インフラストラクチャにクローズドソース LLM をデプロイすることで、データのプライバシが向上し、誤用リスクを軽減できる、と我々は主張する。
十分に設計されたオンプレミスデプロイメントでは、モデル盗難を防止することによって、モデルの機密性を保証し、プライバシ保護のカスタマイズを提供する必要がある。
私たちの調査結果は、プライバシと機密性が共存可能であることを示し、オンプレミスのAIデプロイメントをセキュアにする方法を確立しました。
論文 参考訳(メタデータ) (2024-10-15T02:00:36Z) - Federated Instruction Tuning of LLMs with Domain Coverage Augmentation [87.49293964617128]
Federated Domain-specific Instruction Tuning (FedDIT)は、限られたクロスクライアントなプライベートデータと、命令拡張のさまざまな戦略を利用する。
我々は,欲求のあるクライアントセンターの選択と検索に基づく拡張を通じて,ドメインカバレッジを最適化するFedDCAを提案する。
クライアント側の計算効率とシステムのスケーラビリティのために、FedDCAの変種であるFedDCA$*$はサーバ側の特徴アライメントを備えた異種エンコーダを利用する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Fast Private Location-based Information Retrieval Over the Torus [2.0680208842600454]
LocPIRは、パブリッククラウドからデータを取得する際のユーザの位置情報のプライバシを保存する。
システムでは、非ポリノミカル評価におけるTFHEの専門知識を採用している。
論文 参考訳(メタデータ) (2024-07-29T10:42:17Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - FastSecAgg: Scalable Secure Aggregation for Privacy-Preserving Federated
Learning [18.237186837994585]
セキュアアグリゲーション'プロトコルは、サーバがクライアントのモデルをプライバシ保護方法で集約することを可能にする。
FastSecAggは計算と通信の面で効率的であり、クライアントのドロップアウトに対して堅牢である。
論文 参考訳(メタデータ) (2020-09-23T16:49:02Z) - Unsupervised Model Personalization while Preserving Privacy and
Scalability: An Open Problem [55.21502268698577]
本研究では,非教師なしモデルパーソナライゼーションの課題について検討する。
この問題を探求するための新しいDual User-Adaptation Framework(DUA)を提供する。
このフレームワークは、サーバ上のモデルパーソナライズとユーザデバイス上のローカルデータ正規化に柔軟にユーザ適応を分散させる。
論文 参考訳(メタデータ) (2020-03-30T09:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。