論文の概要: Fundamental Limits of Obfuscation for Linear Gaussian Dynamical Systems:
An Information-Theoretic Approach
- arxiv url: http://arxiv.org/abs/2011.00718v1
- Date: Thu, 29 Oct 2020 20:05:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 00:09:43.636014
- Title: Fundamental Limits of Obfuscation for Linear Gaussian Dynamical Systems:
An Information-Theoretic Approach
- Title(参考訳): 線形ガウス力学系に対する難読化の基本限界:情報理論的アプローチ
- Authors: Song Fang and Quanyan Zhu
- Abstract要約: 線形ガウス力学系に対するプライバシーゆがみトレードオフの観点から,難読化の限界について検討する。
具体的には、動的システムの出力にプライバシマスクを追加する際に、基本的なプライバシーゆがみトレードオフを捉える解析式を得る。
- 参考スコア(独自算出の注目度): 23.249999313567624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the fundamental limits of obfuscation in terms of
privacy-distortion tradeoffs for linear Gaussian dynamical systems via an
information-theoretic approach. Particularly, we obtain analytical formulas
that capture the fundamental privacy-distortion tradeoffs when privacy masks
are to be added to the outputs of the dynamical systems, while indicating
explicitly how to design the privacy masks in an optimal way: The privacy masks
should be colored Gaussian with power spectra shaped specifically based upon
the system and noise properties.
- Abstract(参考訳): 本稿では,情報理論による線形ガウス力学系に対するプライバシー歪みトレードオフの観点から,難読化の基本的限界について検討する。
特に,プライバシマスクの出力にプライバシマスクを追加する場合の基本的なプライバシゆがみトレードオフをキャプチャする分析式を得るとともに,プライバシマスクを最適に設計する方法を明確に示す。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Noisy Neighbors: Efficient membership inference attacks against LLMs [2.666596421430287]
本稿では,組込み空間に雑音を付加することにより,対象試料のテクストノイズを発生させる効率的な手法を提案する。
提案手法はシャドウモデルの有効性と密に一致し,実際のプライバシー監査シナリオにおけるユーザビリティを示す。
論文 参考訳(メタデータ) (2024-06-24T12:02:20Z) - Decrypting Nonlinearity: Koopman Interpretation and Analysis of Cryptosystems [0.05120567378386613]
本稿では,Diffie-Hellman鍵交換系とRivest-Shamir-Adleman暗号系を非線形力学系として見ることにより,暗号系に対する新たな視点を導入する。
クープマン理論を適用することで、これらの力学系を高次元空間に変換し、解析的に同値な純粋線型系を導出する。
論文 参考訳(メタデータ) (2023-11-21T16:38:48Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Privacy-aware Gaussian Process Regression [5.837881923712394]
提案手法は,データ所有者がプライバシ上の懸念から構築した高忠実度教師あり学習モデルを共有することを望まない場合に利用することができる。
提案手法の鍵となる考え方は,ガウス過程モデルの予測分散が予め定義されたプライバシーレベルに達するまで,データに合成ノイズを加えることである。
論文 参考訳(メタデータ) (2023-05-25T23:44:31Z) - Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism [2.84279467589473]
本稿では,差分プライバシーフレームワークと行列因数分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が機密性の高いユーザー情報を抽出するのを防ぐことができる。
論文 参考訳(メタデータ) (2023-04-11T13:50:39Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - A Differentially Private Framework for Deep Learning with Convexified
Loss Functions [4.059849656394191]
差分プライバシー(DP)は、基礎となるトレーニングセットのプライバシーを保護するためにディープラーニングに応用されている。
既存のDP実践は、客観的摂動、勾配摂動、出力摂動の3つのカテゴリに分類される。
本稿では,DPノイズをランダムにサンプリングしたニューロンに注入し,新しい出力摂動機構を提案する。
論文 参考訳(メタデータ) (2022-04-03T11:10:05Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。