論文の概要: Privacy in networks of quantum sensors
- arxiv url: http://arxiv.org/abs/2408.01711v1
- Date: Sat, 3 Aug 2024 08:39:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 18:51:05.654500
- Title: Privacy in networks of quantum sensors
- Title(参考訳): 量子センサーのネットワークにおけるプライバシー
- Authors: Majid Hassani, Santiago Scheiner, Matteo G. A. Paris, Damian Markham,
- Abstract要約: 我々は、量子フィッシャー情報行列の操作の観点から、プライバシの分析を開発する。
量子センサネットワークにおける未知パラメータの線形結合の推定において、最適状態が最大プライバシーを達成することを発見した。
- 参考スコア(独自算出の注目度): 1.2499537119440245
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We treat privacy in a network of quantum sensors where accessible information is limited to specific functions of the network parameters, and all other information remains private. We develop an analysis of privacy in terms of a manipulation of the quantum Fisher information matrix, and find the optimal state achieving maximum privacy in the estimation of linear combination of the unknown parameters in a network of quantum sensors. We also discuss the effect of uncorrelated noise on the privacy of the network. Moreover, we illustrate our results with an example where the goal is to estimate the average value of the unknown parameters in the network. In this example, we also introduce the notion of quasi-privacy ($\epsilon$-privacy), quantifying how close the state is to being private.
- Abstract(参考訳): 我々は、アクセス可能な情報がネットワークパラメータの特定の機能に制限され、他のすべての情報が非公開である量子センサーのネットワークでプライバシを扱う。
我々は、量子フィッシャー情報行列の操作の観点から、プライバシの分析を開発し、量子センサネットワークにおける未知パラメータの線形結合の推定において、最大プライバシを達成する最適状態を求める。
また,ネットワークのプライバシーに対する非相関ノイズの影響についても論じる。
さらに,ネットワーク内の未知パラメータの平均値を推定する手法を提案する。
この例では、準プライバシー(「準プライバシー」)の概念を導入し、州がプライベートであることの近さを定量化します。
関連論文リスト
- Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Private and Robust States for Distributed Quantum Sensing [1.2499537119440245]
分散量子センシングにより、空間的に分離されたプローブに符号化された複数のパラメータを推定できる。
このような設定では、必要以上に多くの情報を与えたくないのは自然なことです。
我々は、機能に関するプライバシーの概念を使用し、ターゲット機能に関する情報だけがすべての関係者に利用可能であることを保証します。
論文 参考訳(メタデータ) (2024-07-31T15:46:50Z) - The Effect of Quantization in Federated Learning: A Rényi Differential Privacy Perspective [15.349042342071439]
フェデレートラーニング(FL)は、分散データを使用したプライバシ保護機械学習を大いに約束する新興パラダイムである。
プライバシーを強化するために、FLはモデルの重み付けにガウスノイズを加えることを含む差分プライバシー(DP)と組み合わせることができる。
本研究では,FLシステムにおける量子化がプライバシに与える影響について検討する。
論文 参考訳(メタデータ) (2024-05-16T13:50:46Z) - Differential Privacy Preserving Quantum Computing via Projection Operator Measurements [15.024190374248088]
古典コンピューティングでは、プライバシ保護の標準を満たすために、差分プライバシ(DP)の概念を組み込むことができる。
量子コンピューティングのシナリオでは、研究者は量子ノイズを考慮して古典DPを量子微分プライバシー(QDP)に拡張した。
ショットノイズは、量子コンピューティングにおいて、効果的にプライバシ保護を提供することを示す。
論文 参考訳(メタデータ) (2023-12-13T15:27:26Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A unifying framework for differentially private quantum algorithms [0.0]
本稿では、近隣の量子状態の新規で一般的な定義を提案する。
この定義が量子符号化の基盤となる構造を捉えることを実証する。
また、入力状態のコピーを複数用意した代替設定についても検討する。
論文 参考訳(メタデータ) (2023-07-10T17:44:03Z) - Private network parameter estimation with quantum sensors [0.0]
本稿では,量子センサネットワーク上でパラメータの線形関数を安全に評価するためのプロトコルを提案する。
これにより、クロックのネットワークをセキュアにし、セキュアなマルチパーティコンピューティングのより一般的な応用への扉を開くことができる。
論文 参考訳(メタデータ) (2022-07-29T03:07:17Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Applications of Differential Privacy in Social Network Analysis: A
Survey [60.696428840516724]
差別化プライバシは、情報を共有し、強力な保証でプライバシを保存するのに有効である。
ソーシャルネットワーク分析は多くのアプリケーションで広く採用されており、差分プライバシーの応用のための新たな領域が開かれた。
論文 参考訳(メタデータ) (2020-10-06T19:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。