論文の概要: Equivalence of Privacy and Stability with Generalization Guarantees in Quantum Learning
- arxiv url: http://arxiv.org/abs/2602.01177v2
- Date: Thu, 05 Feb 2026 10:06:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 14:11:23.840518
- Title: Equivalence of Privacy and Stability with Generalization Guarantees in Quantum Learning
- Title(参考訳): 量子学習における一般化保証によるプライバシと安定性の等価性
- Authors: Ayanava Dasgupta, Naqueeb Ahmad Warsi, Masahito Hayashi,
- Abstract要約: 本稿では、安定性、プライバシー、量子学習アルゴリズムの一般化性能の相互作用を解明する統合情報理論フレームワークを提案する。
我々は、量子的相互情報の観点から期待される一般化誤差の上限を確立し、古典的な結果をEspositoらによって一般化する確率的上界を導出する。
学習アルゴリズムが特定のデータセットインスタンスに依存しない場合に、プライバシの基本的限界を特徴付けるために、ITA(Information-Theoretic Admissibility)を導入して、分析を不適切な学習アルゴリズムに拡張する。
- 参考スコア(独自算出の注目度): 42.694152897125726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a unified information-theoretic framework elucidating the interplay between stability, privacy, and the generalization performance of quantum learning algorithms. We establish a bound on the expected generalization error in terms of quantum mutual information and derive a probabilistic upper bound that generalizes the classical result by Esposito et al. (2021). Complementing these findings, we provide a lower bound on the expected true loss relative to the expected empirical loss. Additionally, we demonstrate that $(\varepsilon, δ)$-quantum differentially private learning algorithms are stable, thereby ensuring strong generalization guarantees. Finally, we extend our analysis to dishonest learning algorithms, introducing Information-Theoretic Admissibility (ITA) to characterize the fundamental limits of privacy when the learning algorithm is oblivious to specific dataset instances.
- Abstract(参考訳): 本稿では、安定性、プライバシー、量子学習アルゴリズムの一般化性能の相互作用を解明する統合情報理論フレームワークを提案する。
我々は、量子的相互情報の観点から期待される一般化誤差の上限を確立し、古典的な結果をEsposito et al (2021) によって一般化する確率的上界を導出する。
これらの知見を補完し、期待される実損失と期待される経験損失との相関関係を低くする。
さらに、$(\varepsilon, δ)$-quantum差分学習アルゴリズムが安定であることを示し、高い一般化保証を保証する。
最後に、学習アルゴリズムが特定のデータセットインスタンスに不適当である場合に、プライバシの基本的限界を特徴付けるために、ITA(Information-Theoretic Admissibility)を導入して、分析を不当な学習アルゴリズムに拡張する。
関連論文リスト
- A Unified Learn-to-Distort-Data Framework for Privacy-Utility Trade-off in Trustworthy Federated Learning [5.622065847054885]
プライバシとユーティリティの均衡をナビゲートするための原則的アプローチを提供するTextitLearn-to-Distort-Dataフレームワークを提案する。
データ歪みに基づく様々なプライバシー保護機構への我々のフレームワークの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-05T08:15:09Z) - Federated Transfer Learning with Differential Privacy [21.50525027559563]
フェデレートラーニングは分散データを分析するための強力なフレームワークとして登場した。
本稿では,複数の異種ソースデータセットからの情報を活用することで,対象データセットの学習を向上させることを目的とする。
私たちは、データセットごとにプライバシーを保証するフェデレーションされた差分プライバシーの概念を厳格に定式化します。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - On the Query Complexity of Training Data Reconstruction in Private
Learning [0.0]
我々は,ホワイトボックスの敵が学習者に対して行わなければならないクエリ数を分析し,学習データを再構築する。
例えば$(epsilon, delta)$ DPの学習者は任意のコンパクトな距離空間から引き出された訓練データを持つ。
論文 参考訳(メタデータ) (2023-03-29T00:49:38Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。