論文の概要: Zero-Knowledge Location Privacy via Accurate Floating-Point SNARKs
- arxiv url: http://arxiv.org/abs/2404.14983v2
- Date: Sat, 09 Nov 2024 13:18:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:02:58.229265
- Title: Zero-Knowledge Location Privacy via Accurate Floating-Point SNARKs
- Title(参考訳): 正確な浮動小数点SNARKによるゼロ知識位置プライバシー
- Authors: Jens Ernstberger, Chengru Zhang, Luca Ciprian, Philipp Jovanovic, Sebastian Steinhorst,
- Abstract要約: ゼロ知識位置情報プライバシー(ZKLP)について紹介する。
ZKLPは、ユーザーが正確な位置情報を開示することなく、特定の地理的領域内にあることを第三者に証明することができる。
ピアツーピア近接テストのためのプライバシー保護プロトコルを構築することにより,ZKLPの実用性を示す。
- 参考スコア(独自算出の注目度): 2.34764060945577
- License:
- Abstract: We introduce Zero-Knowledge Location Privacy (ZKLP), enabling users to prove to third parties that they are within a specified geographical region while not disclosing their exact location. ZKLP supports varying levels of granularity, allowing for customization depending on the use case. To realize ZKLP, we introduce the first set of Zero-Knowledge Proof (ZKP) circuits that are fully compliant to the IEEE 754 standard for floating-point arithmetic. Our results demonstrate that our floating point circuits amortize efficiently, requiring only $64$ constraints per multiplication for $2^{15}$ single-precision floating-point multiplications. We utilize our floating point implementation to realize the ZKLP paradigm. In comparison to a baseline, we find that our optimized implementation has $15.9 \times$ less constraints utilizing single precision floating-point values, and $12.2 \times$ less constraints when utilizing double precision floating-point values. We demonstrate the practicability of ZKLP by building a protocol for privacy preserving peer-to-peer proximity testing - Alice can test if she is close to Bob by receiving a single message, without either party revealing any other information about their location. In such a configuration, Bob can create a proof of (non-)proximity in $0.26 s$, whereas Alice can verify her distance to about $470$ peers per second
- Abstract(参考訳): 我々はZKLP(Zero-Knowledge Location Privacy)を導入し、ユーザーが正確な位置情報を開示することなく、特定の地理的領域内にあることを第三者に証明できるようにする。
ZKLPはさまざまなレベルの粒度をサポートし、ユースケースに応じてカスタマイズが可能である。
ZKLPを実現するために、浮動小数点演算のIEEE 754標準に完全に準拠するZero-Knowledge Proof (ZKP) 回路の最初のセットを導入する。
その結果,浮動小数点回路の効率は向上し,単精度浮動小数点乗算の場合,乗算あたりの制約はたったの6,4ドルであった。
浮動小数点法を用いてZKLPパラダイムを実現する。
ベースラインと比較して、最適化された実装は、単一精度浮動小数点値を利用する制約が15.9ドル、二重精度浮動小数点値を利用する制約が12.2ドルであることがわかった。
我々は、ピアツーピア近接テストのプライバシーを守るプロトコルを構築することでZKLPの実践性を実証する。
そのような構成では、ボブは0.26 s$で(非)確率の証明を作成できるが、アリスは1秒あたり約470ドルまでの距離を検証できる。
関連論文リスト
- Private Mean Estimation with Person-Level Differential Privacy [6.621676316292624]
複数のサンプルを持つ場合の個人レベルの個人別平均推定について検討した。
我々は、計算効率のよいアルゴリズムを、純粋DPで、計算効率の悪いアルゴリズムを、ほぼ一致する下界は、近似DPの最も寛容な場合を抑える。
論文 参考訳(メタデータ) (2024-05-30T18:20:35Z) - LDPKiT: Recovering Utility in LDP Schemes by Training with Noise^2 [7.879470113673807]
LDPKiTは,知識伝達による地域差分とユーティリティ保存推論の略である。
CIFAR-10, Fashion-MNIST, SVHN, CARER NLPデータセットを用いた実験により, LDPKiTはプライバシーを損なうことなく実用性を向上させることができることを示した。
論文 参考訳(メタデータ) (2024-05-25T21:53:58Z) - Provably Adversarially Robust Nearest Prototype Classifiers [46.576144913096705]
最寄りのプロトタイプ(NPC)は、選択された距離メートル法に関して、最も近いプロトタイプのラベルを各入力ポイントに割り当てる。
以前の作業では、NPCに対して同じ$ell_p$-distanceを使用する場合、$ell_p$-threatモデルにおける最小対向摂動の低い境界を提供することができた。
本稿では,判定に $ell_p$-distances と認証に $ell_q$-threat モデルを使用する場合の複雑性について,完全な議論を行う。
論文 参考訳(メタデータ) (2022-07-14T21:22:30Z) - Scalable Differentially Private Clustering via Hierarchically Separated
Trees [82.69664595378869]
我々は,最大$O(d3/2log n)cdot OPT + O(k d2 log2 n / epsilon2)$,$epsilon$はプライバシ保証であることを示す。
最悪の場合の保証は、最先端のプライベートクラスタリング手法よりも悪いが、提案するアルゴリズムは実用的である。
論文 参考訳(メタデータ) (2022-06-17T09:24:41Z) - Private Frequency Estimation via Projective Geometry [47.112770141205864]
そこで本研究では,局所微分型(LDP)周波数推定のための新しいアルゴリズムであるProjectiveGeometryResponse (PGR)を提案する。
私たちの$varepsilon$-LDPアルゴリズムは、プライベートコイン設定で$lceillogkrceilビット、パブリックコイン設定で$varepsilonlog e + O(1)$の通信コストを持っています。
実際に使用される多くのパラメータ設定では、これは最近のPIによって達成されるO(n+k2)$Optimalコストよりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-01T02:49:55Z) - User-Level Private Learning via Correlated Sampling [49.453751858361265]
我々は、各ユーザが$m$のサンプルを持ち、プライバシ保護が各ユーザのデータレベルで実施される設定について検討する。
この設定では、より少ない数のユーザーで学習できることが示されます。
論文 参考訳(メタデータ) (2021-10-21T15:33:53Z) - Frequency Estimation Under Multiparty Differential Privacy: One-shot and
Streaming [10.952006057356714]
プライバシと通信の制約下での周波数推定の基本的問題について検討し,そのデータを$k$のパーティ間で分散する。
私たちは、ローカルディファレンシャルプライバシ(LDP)と(分散)ディファレンシャルプライバシよりも一般的なマルチパーティディファレンシャルプライバシ(MDP)のモデルを採用しています。
我々のプロトコルは、より厳密な2つの制約によって許容可能な最適性(対数因子まで)を達成する。
論文 参考訳(メタデータ) (2021-04-05T08:15:20Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Provably Efficient Safe Exploration via Primal-Dual Policy Optimization [105.7510838453122]
制約付きマルコフ決定過程(CMDP)を用いた安全強化学習(SRL)問題について検討する。
本稿では,関数近似設定において,安全な探索を行うCMDPの効率の良いオンラインポリシー最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-01T17:47:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。