論文の概要: Equivalence of Privacy and Stability with Generalization Guarantees in Quantum Learning
- arxiv url: http://arxiv.org/abs/2602.01177v2
- Date: Thu, 05 Feb 2026 10:06:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 14:11:23.840518
- Title: Equivalence of Privacy and Stability with Generalization Guarantees in Quantum Learning
- Title(参考訳): 量子学習における一般化保証によるプライバシと安定性の等価性
- Authors: Ayanava Dasgupta, Naqueeb Ahmad Warsi, Masahito Hayashi,
- Abstract要約: 本稿では、安定性、プライバシー、量子学習アルゴリズムの一般化性能の相互作用を解明する統合情報理論フレームワークを提案する。
我々は、量子的相互情報の観点から期待される一般化誤差の上限を確立し、古典的な結果をEspositoらによって一般化する確率的上界を導出する。
学習アルゴリズムが特定のデータセットインスタンスに依存しない場合に、プライバシの基本的限界を特徴付けるために、ITA(Information-Theoretic Admissibility)を導入して、分析を不適切な学習アルゴリズムに拡張する。
- 参考スコア(独自算出の注目度): 42.694152897125726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a unified information-theoretic framework elucidating the interplay between stability, privacy, and the generalization performance of quantum learning algorithms. We establish a bound on the expected generalization error in terms of quantum mutual information and derive a probabilistic upper bound that generalizes the classical result by Esposito et al. (2021). Complementing these findings, we provide a lower bound on the expected true loss relative to the expected empirical loss. Additionally, we demonstrate that $(\varepsilon, δ)$-quantum differentially private learning algorithms are stable, thereby ensuring strong generalization guarantees. Finally, we extend our analysis to dishonest learning algorithms, introducing Information-Theoretic Admissibility (ITA) to characterize the fundamental limits of privacy when the learning algorithm is oblivious to specific dataset instances.
- Abstract(参考訳): 本稿では、安定性、プライバシー、量子学習アルゴリズムの一般化性能の相互作用を解明する統合情報理論フレームワークを提案する。
我々は、量子的相互情報の観点から期待される一般化誤差の上限を確立し、古典的な結果をEsposito et al (2021) によって一般化する確率的上界を導出する。
これらの知見を補完し、期待される実損失と期待される経験損失との相関関係を低くする。
さらに、$(\varepsilon, δ)$-quantum差分学習アルゴリズムが安定であることを示し、高い一般化保証を保証する。
最後に、学習アルゴリズムが特定のデータセットインスタンスに不適当である場合に、プライバシの基本的限界を特徴付けるために、ITA(Information-Theoretic Admissibility)を導入して、分析を不当な学習アルゴリズムに拡張する。
関連論文リスト
- Characterizing Online and Private Learnability under Distributional Constraints via Generalized Smoothness [63.833913892018536]
本研究では、固定されたファミリー$U$からデータ生成分布を適応的に選択できる分布敵の下でのシーケンシャルな意思決定について検討する。
一般化滑らか性(Generalized smoothness)という概念の観点で学習可能性を認めるファミリー$U$のほぼ完全な特徴付けを提供する。
一般化された滑らかさは,分布制約下での個人学習性も特徴付けることを示す。
論文 参考訳(メタデータ) (2026-02-24T06:15:59Z) - Covert Quantum Learning: Privately and Verifiably Learning from Quantum Data [4.230025065044209]
量子学習理論における包括的検証可能な学習モデルを提案する。
Forrelation と Simon の問題に対する古典的クエリと量子的クエリの指数的分離は、隠蔽性制約の下で生き残ることを示す。
我々のモデルとそれに対応するアルゴリズムは、信頼できない遠隔データであっても、量子的優位性はプライベートで検証可能であることを示した。
論文 参考訳(メタデータ) (2025-10-08T16:25:28Z) - Global Convergence of Continual Learning on Non-IID Data [51.99584235667152]
回帰モデルの連続学習のための総合的・包括的理論的解析を行う。
一般データ条件下で連続学習のほぼ確実に収束する結果を初めて確立する。
論文 参考訳(メタデータ) (2025-03-24T10:06:07Z) - A Unified Learn-to-Distort-Data Framework for Privacy-Utility Trade-off in Trustworthy Federated Learning [5.622065847054885]
プライバシとユーティリティの均衡をナビゲートするための原則的アプローチを提供するTextitLearn-to-Distort-Dataフレームワークを提案する。
データ歪みに基づく様々なプライバシー保護機構への我々のフレームワークの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-05T08:15:09Z) - Bounds and guarantees for learning and entanglement [0.0]
情報理論は、与えられたデータセット上での学習アルゴリズムのパフォーマンスを予測するツールを提供する。
この研究はまず、小さな条件エントロピーが学習を成功させるのに十分であることを示すことで、この関係を拡張した。
この情報理論と学習の関連性は、量子システムを含む学習タスクを特徴づけるために、同様に量子情報理論を適用することを示唆している。
論文 参考訳(メタデータ) (2024-04-10T18:09:22Z) - Federated Transfer Learning with Differential Privacy [21.50525027559563]
フェデレートラーニングは分散データを分析するための強力なフレームワークとして登場した。
本稿では,複数の異種ソースデータセットからの情報を活用することで,対象データセットの学習を向上させることを目的とする。
私たちは、データセットごとにプライバシーを保証するフェデレーションされた差分プライバシーの概念を厳格に定式化します。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - A unified framework for information-theoretic generalization bounds [8.04975023021212]
本稿では,学習アルゴリズムにおける情報理論の一般化境界を導出するための一般的な手法を提案する。
主な技術的ツールは、測度の変化と、$L_psi_p$ Orlicz空間におけるヤングの不等式の緩和に基づく確率的デコリレーション補題である。
論文 参考訳(メタデータ) (2023-05-18T15:36:20Z) - On the Query Complexity of Training Data Reconstruction in Private
Learning [0.0]
我々は,ホワイトボックスの敵が学習者に対して行わなければならないクエリ数を分析し,学習データを再構築する。
例えば$(epsilon, delta)$ DPの学習者は任意のコンパクトな距離空間から引き出された訓練データを持つ。
論文 参考訳(メタデータ) (2023-03-29T00:49:38Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Information Theoretic Lower Bounds for Information Theoretic Upper
Bounds [14.268363583731848]
コンベックス最適化の文脈における出力モデルと経験的一般化の関係について検討する。
本研究は,真のリスク最小化には相互情報が必要であることを明らかにする。
既存の情報理論の一般化境界は、SGDや正規化などのアルゴリズムの能力を捉えるのに不足している。
論文 参考訳(メタデータ) (2023-02-09T20:42:36Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - On Leave-One-Out Conditional Mutual Information For Generalization [122.2734338600665]
残余条件付き相互情報(loo-CMI)の新しい尺度に基づく教師付き学習アルゴリズムのための情報理論の一般化境界を導出する。
他のCMI境界とは対照的に、我々のloo-CMI境界は容易に計算でき、古典的なout-out-out-cross-validationのような他の概念と関連して解釈できる。
ディープラーニングのシナリオにおいて予測された一般化ギャップを評価することにより,境界の質を実証的に検証する。
論文 参考訳(メタデータ) (2022-07-01T17:58:29Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Tighter Generalization Bounds for Iterative Differentially Private
Learning Algorithms [95.73230376153872]
本稿では,反復学習アルゴリズムにおける一般化とプライバシ保護の関係を2つのステップで検討する。
我々は、$(varepsilon, delta)$-differential privacyは、マルチデータベース学習アルゴリズムに縛られる平均的な一般化を意味することを証明している。
次に,ほとんどの学習アルゴリズムが共有する反復的な性質が,プライバシーの保護とさらなる一般化にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2020-07-18T09:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。