論文の概要: PAC to the Future: Zero-Knowledge Proofs of PAC Private Systems
- arxiv url: http://arxiv.org/abs/2602.11954v1
- Date: Thu, 12 Feb 2026 13:49:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.849793
- Title: PAC to the Future: Zero-Knowledge Proofs of PAC Private Systems
- Title(参考訳): PAC to the Future: PAC Private Systemsのゼロ知識証明
- Authors: Guilhem Repetto, Nojan Sheybani, Gabrielle De Micheli, Farinaz Koushanfar,
- Abstract要約: 本稿では,信頼性の高い計算環境において,確率的近似(PAC)プライバシとゼロ知識証明(ZKP)を組み合わせることによって,検証可能なプライバシ保証を実現する新しいフレームワークを提案する。
我々は、プロプライエタリなシステムの機密性を維持しつつ、PACプライバシメカニズムの正しい実装を証明した証明を生成するために、非インタラクティブなZKPスキームを活用している。
- 参考スコア(独自算出の注目度): 11.574355374384462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy concerns in machine learning systems have grown significantly with the increasing reliance on sensitive user data for training large-scale models. This paper introduces a novel framework combining Probably Approximately Correct (PAC) Privacy with zero-knowledge proofs (ZKPs) to provide verifiable privacy guarantees in trustless computing environments. Our approach addresses the limitations of traditional privacy-preserving techniques by enabling users to verify both the correctness of computations and the proper application of privacy-preserving noise, particularly in cloud-based systems. We leverage non-interactive ZKP schemes to generate proofs that attest to the correct implementation of PAC privacy mechanisms while maintaining the confidentiality of proprietary systems. Our results demonstrate the feasibility of achieving verifiable PAC privacy in outsourced computation, offering a practical solution for maintaining trust in privacy-preserving machine learning and database systems while ensuring computational integrity.
- Abstract(参考訳): マシンラーニングシステムのプライバシに関する懸念は、大規模モデルをトレーニングする上で、センシティブなユーザデータへの依存が増大するにつれて、大幅に増大している。
本稿では,信頼性の高い計算環境において,確率的近似(PAC)プライバシとゼロ知識証明(ZKP)を組み合わせることによって,検証可能なプライバシ保証を実現する新しいフレームワークを提案する。
提案手法は,特にクラウドシステムにおいて,計算の正確さと適切なプライバシ保存ノイズの適用性の両方を検証することによって,従来のプライバシ保存手法の限界に対処する。
我々は、プロプライエタリなシステムの機密性を維持しつつ、PACプライバシメカニズムの正しい実装を証明した証明を生成するために、非インタラクティブなZKPスキームを活用している。
本研究は,プライバシ保護機械学習とデータベースシステムの信頼性を維持しつつ,計算整合性を確保しつつ,信頼性の高いPACプライバシをアウトソース計算で実現可能であることを示すものである。
関連論文リスト
- Breaking the Gaussian Barrier: Residual-PAC Privacy for Automatic Privatization [27.430637970345433]
PACプライバシーアルゴリズムによって得られる上限は、摂動機構の出力が独立雑音を伴うガウス的である場合にのみ厳密であることを示す。
本稿では,逆推定後に残るプライバシを定量化するf-divergenceベースの尺度であるResidual-PAC(R-PAC)プライバシーを紹介する。
提案手法は,任意のデータ分布に対する効率的なプライバシ予算利用を実現し,複数のメカニズムがデータセットにアクセスすると自然に構成する。
論文 参考訳(メタデータ) (2025-06-06T20:52:47Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Bridging Privacy and Robustness for Trustworthy Machine Learning [6.318638597489423]
機械学習システムは、データ摂動や敵の操作に対して本質的に堅牢性を必要とする。
本稿では,局所微分プライバシー(LDP)と最大ベイズプライバシー(MBP)の複雑な理論的関係を体系的に検討する。
我々はこれらのプライバシー概念をアルゴリズム的堅牢性、特に確率的略正(PAC)学習フレームワークにブリッジする。
論文 参考訳(メタデータ) (2024-03-25T10:06:45Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Declarative Privacy-Preserving Inference Queries [21.890318255305026]
プライバシ保存型推論クエリを自動化するためのエンドツーエンドワークフローを提案する。
提案した宣言型プライバシ保護ワークフローでは,ユーザが“保護方法”ではなく,“保護すべきプライベート情報”を指定することが可能になった。
論文 参考訳(メタデータ) (2024-01-22T22:50:59Z) - Verifiable Privacy-Preserving Computing [3.543432625843538]
我々は、検証可能性と、分散データ上のプライバシ保存計算を組み合わせた既存のソリューションを分析する。
我々は、ソリューションアプローチ、セキュリティ、効率、実用性に関する37の異なるスキームを分類し比較する。
論文 参考訳(メタデータ) (2023-09-15T08:44:13Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。