論文の概要: Equivalence of Privacy and Stability with Generalization Guarantees in Quantum Learning
- arxiv url: http://arxiv.org/abs/2602.01177v1
- Date: Sun, 01 Feb 2026 12:03:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.645671
- Title: Equivalence of Privacy and Stability with Generalization Guarantees in Quantum Learning
- Title(参考訳): 量子学習における一般化保証によるプライバシと安定性の等価性
- Authors: Ayanava Dasgupta, Naqueeb Ahmad Warsi, Masahito Hayashi,
- Abstract要約: 本稿では、微分プライベート(DP)量子学習アルゴリズムの一般化性能を解析するための統合情報理論フレームワークを提案する。
プライバシとアルゴリズムの安定性の関連性を活用して、トレーニングデータとアルゴリズムの出力の相互情報に強い制約を課す(varepsilon, )$-Quantum Differential Privacy (QDP)を確立する。
私たちは、学習マップ自体が特定のデータセットインスタンスに従わなければならないシナリオにおいて、プライバシの基本的な限界を特徴付けるために、信頼できないデータプロセッサの設定にフレームワークを拡張します。
- 参考スコア(独自算出の注目度): 42.694152897125726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a unified information-theoretic framework to analyze the generalization performance of differentially private (DP) quantum learning algorithms. By leveraging the connection between privacy and algorithmic stability, we establish that $(\varepsilon, δ)$-Quantum Differential Privacy (QDP) imposes a strong constraint on the mutual information between the training data and the algorithm's output. We derive a rigorous, mechanism-agnostic upper bound on this mutual information for learning algorithms satisfying a 1-neighbor privacy constraint. Furthermore, we connect this stability guarantee to generalization, proving that the expected generalization error of any $(\varepsilon, δ)$-QDP learning algorithm is bounded by the square root of the privacy-induced stability term. Finally, we extend our framework to the setting of an untrusted Data Processor, introducing the concept of Information-Theoretic Admissibility (ITA) to characterize the fundamental limits of privacy in scenarios where the learning map itself must remain oblivious to the specific dataset instance.
- Abstract(参考訳): 本稿では、微分プライベート(DP)量子学習アルゴリズムの一般化性能を解析するための統合情報理論フレームワークを提案する。
プライバシとアルゴリズムの安定性の関連性を活用して、トレーニングデータとアルゴリズムの出力の相互情報に強い制約を課すと、$(\varepsilon, δ)$-Quantum Differential Privacy (QDP)が成立する。
隣り合うプライバシー制約を満たすアルゴリズムを学習するために、この相互情報に基づいて厳密でメカニズムに依存しない上限を導出する。
さらに、この安定性保証を一般化に結び付け、期待される$(\varepsilon, δ)$-QDP学習アルゴリズムの一般化誤差が、プライバシーによる安定性項の平方根によって制限されていることを証明した。
最後に、我々のフレームワークを信頼できないデータプロセッサの設定にまで拡張し、学習マップ自体が特定のデータセットインスタンスに従わなければならないシナリオにおいて、プライバシの基本的な限界を特徴付けるために、ITA(Information-Theoretic Admissibility)の概念を導入します。
関連論文リスト
- A Unified Learn-to-Distort-Data Framework for Privacy-Utility Trade-off in Trustworthy Federated Learning [5.622065847054885]
プライバシとユーティリティの均衡をナビゲートするための原則的アプローチを提供するTextitLearn-to-Distort-Dataフレームワークを提案する。
データ歪みに基づく様々なプライバシー保護機構への我々のフレームワークの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-05T08:15:09Z) - Federated Transfer Learning with Differential Privacy [21.50525027559563]
フェデレートラーニングは分散データを分析するための強力なフレームワークとして登場した。
本稿では,複数の異種ソースデータセットからの情報を活用することで,対象データセットの学習を向上させることを目的とする。
私たちは、データセットごとにプライバシーを保証するフェデレーションされた差分プライバシーの概念を厳格に定式化します。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - On the Query Complexity of Training Data Reconstruction in Private
Learning [0.0]
我々は,ホワイトボックスの敵が学習者に対して行わなければならないクエリ数を分析し,学習データを再構築する。
例えば$(epsilon, delta)$ DPの学習者は任意のコンパクトな距離空間から引き出された訓練データを持つ。
論文 参考訳(メタデータ) (2023-03-29T00:49:38Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。