論文の概要: Design of Stochastic Quantizers for Privacy Preservation
- arxiv url: http://arxiv.org/abs/2403.03048v1
- Date: Tue, 5 Mar 2024 15:31:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-17 17:01:02.770557
- Title: Design of Stochastic Quantizers for Privacy Preservation
- Title(参考訳): プライバシー保護のための確率量子化器の設計
- Authors: Le Liu, Yu Kawano, Ming Cao,
- Abstract要約: 十分に大きな量子化ステップが$(0, delta)$差分プライバシーを保証することを実証する。
出力制御の追従誤差として量子化による制御性能の劣化を評価する。
- 参考スコア(独自算出の注目度): 4.372867006525438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we examine the role of stochastic quantizers for privacy preservation. We first employ a static stochastic quantizer and investigate its corresponding privacy-preserving properties. Specifically, we demonstrate that a sufficiently large quantization step guarantees $(0, \delta)$ differential privacy. Additionally, the degradation of control performance caused by quantization is evaluated as the tracking error of output regulation. These two analyses characterize the trade-off between privacy and control performance, determined by the quantization step. This insight enables us to use quantization intentionally as a means to achieve the seemingly conflicting two goals of maintaining control performance and preserving privacy at the same time; towards this end, we further investigate a dynamic stochastic quantizer. Under a stability assumption, the dynamic stochastic quantizer can enhance privacy, more than the static one, while achieving the same control performance. We further handle the unstable case by additionally applying input Gaussian noise.
- Abstract(参考訳): 本稿では,プライバシ保護における確率量化器の役割について検討する。
まず静的確率量子化器を使用し、対応するプライバシー保護特性について検討する。
具体的には、十分に大きな量子化ステップが$(0, \delta)$差分プライバシーを保証することを実証する。
さらに、量子化による制御性能の劣化を出力制御の追跡誤差として評価する。
これらの2つの分析は、量子化ステップによって決定されるプライバシと制御性能のトレードオフを特徴付ける。
この知見は,制御性能の維持とプライバシの保護という相反する2つの目標を達成する手段として,量子化を意図的に利用することを可能にし,その目的に向けて,動的確率量子化器をさらに検討する。
安定性の仮定の下では、動的確率量子化器は、同じ制御性能を達成しつつ、静的よりもプライバシーを高めることができる。
さらに、入力ガウス雑音を付加することで不安定なケースを処理します。
関連論文リスト
- Regulating Model Reliance on Non-Robust Features by Smoothing Input Marginal Density [93.32594873253534]
信頼できる機械学習は、非ロバストな特徴に依存するモデルの厳密な規制を必要とする。
本稿では,モデル予測を入力に関連付けることによって,そのような特徴を記述・規制するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-05T09:16:56Z) - The Effect of Quantization in Federated Learning: A Rényi Differential Privacy Perspective [15.349042342071439]
フェデレートラーニング(FL)は、分散データを使用したプライバシ保護機械学習を大いに約束する新興パラダイムである。
プライバシーを強化するために、FLはモデルの重み付けにガウスノイズを加えることを含む差分プライバシー(DP)と組み合わせることができる。
本研究では,FLシステムにおける量子化がプライバシに与える影響について検討する。
論文 参考訳(メタデータ) (2024-05-16T13:50:46Z) - State Estimation and Control for Stochastic Quantum Dynamics with Homodyne Measurement: Stabilizing Qubits under Uncertainty [1.4811951486536687]
本稿では, ホモダイン測定を用いたリアプノフに基づく制御手法を提案する。
従来の量子フィルタリングと拡張カルマンフィルタの修正版について検討した。
論文 参考訳(メタデータ) (2024-03-09T22:29:00Z) - Harnessing Inherent Noises for Privacy Preservation in Quantum Machine
Learning [11.45148186874482]
我々は,量子機械学習におけるデータプライバシ保護に固有の量子ノイズを活用することを提案する。
特に、ノイズ中規模量子(NISQ)デバイスを考えると、避けられないショットノイズと非コヒーレントノイズを利用する。
論文 参考訳(メタデータ) (2023-12-18T11:52:44Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - Probabilities Are Not Enough: Formal Controller Synthesis for Stochastic
Dynamical Models with Epistemic Uncertainty [68.00748155945047]
複雑な力学系のモデルにおける不確実性を捉えることは、安全なコントローラの設計に不可欠である。
いくつかのアプローチでは、安全と到達可能性に関する時間的仕様を満たすポリシーを形式的な抽象化を用いて合成する。
我々の貢献は、ノイズ、不確実なパラメータ、外乱を含む連続状態モデルに対する新しい抽象的制御法である。
論文 参考訳(メタデータ) (2022-10-12T07:57:03Z) - Robust Quantum Control: Analysis & Synthesis via Averaging [0.2320417845168326]
従来の平均化法に基づくロバストネス解析と量子(単位)制御合成のためのアプローチを提案する。
その結果は、名目上の(不確実性のない)忠実さと、よく知られた堅牢性尺度である相互作用(エラー)ハミルトニアン(英語版)のサイズとを競合する多重基準最適化(英語版)である。
論文 参考訳(メタデータ) (2022-08-30T12:09:40Z) - Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints [53.01656650117495]
研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
論文 参考訳(メタデータ) (2022-06-15T01:43:37Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Risk-sensitive Optimization for Robust Quantum Controls [0.0]
本研究では,リスク感受性損失関数のサンプリングに基づく最適化により,高精度制御の堅牢性を著しく向上できることを示す。
本稿では,リスクに敏感なGRAPEと適応的なリスクに敏感なGRAPEの2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-03T06:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。