論文の概要: Fundamental Limits of Obfuscation for Linear Gaussian Dynamical Systems:
An Information-Theoretic Approach
- arxiv url: http://arxiv.org/abs/2011.00718v1
- Date: Thu, 29 Oct 2020 20:05:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 00:09:43.636014
- Title: Fundamental Limits of Obfuscation for Linear Gaussian Dynamical Systems:
An Information-Theoretic Approach
- Title(参考訳): 線形ガウス力学系に対する難読化の基本限界:情報理論的アプローチ
- Authors: Song Fang and Quanyan Zhu
- Abstract要約: 線形ガウス力学系に対するプライバシーゆがみトレードオフの観点から,難読化の限界について検討する。
具体的には、動的システムの出力にプライバシマスクを追加する際に、基本的なプライバシーゆがみトレードオフを捉える解析式を得る。
- 参考スコア(独自算出の注目度): 23.249999313567624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the fundamental limits of obfuscation in terms of
privacy-distortion tradeoffs for linear Gaussian dynamical systems via an
information-theoretic approach. Particularly, we obtain analytical formulas
that capture the fundamental privacy-distortion tradeoffs when privacy masks
are to be added to the outputs of the dynamical systems, while indicating
explicitly how to design the privacy masks in an optimal way: The privacy masks
should be colored Gaussian with power spectra shaped specifically based upon
the system and noise properties.
- Abstract(参考訳): 本稿では,情報理論による線形ガウス力学系に対するプライバシー歪みトレードオフの観点から,難読化の基本的限界について検討する。
特に,プライバシマスクの出力にプライバシマスクを追加する場合の基本的なプライバシゆがみトレードオフをキャプチャする分析式を得るとともに,プライバシマスクを最適に設計する方法を明確に示す。
関連論文リスト
- Synthesis of Dynamic Masks for Information-Theoretic Opacity in Stochastic Systems [28.39928871948642]
本研究では,システムから外部オブザーバへの情報漏洩を最小限に抑えるため,「マスク」と呼ばれる動的情報伝達機構の合成について検討する。
システムにとって、オブザーバは、システム軌道の最終状態が秘密状態の集合に属するかどうかを推測することを目的としている。
ダイナミックマスクは、最終状態の不透明性(最終状態の不透明性と呼ばれる性質)に関する観測者の不確実性を最大化するために、センサ情報を規制しようとする。
論文 参考訳(メタデータ) (2025-02-14T20:53:22Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Decrypting Nonlinearity: Koopman Interpretation and Analysis of Cryptosystems [0.05120567378386613]
本稿では,Diffie-Hellman鍵交換系とRivest-Shamir-Adleman暗号系を非線形力学系として見ることにより,暗号系に対する新たな視点を導入する。
クープマン理論を適用することで、これらの力学系を高次元空間に変換し、解析的に同値な純粋線型系を導出する。
論文 参考訳(メタデータ) (2023-11-21T16:38:48Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Privacy-aware Gaussian Process Regression [5.837881923712394]
提案手法は,データ所有者がプライバシ上の懸念から構築した高忠実度教師あり学習モデルを共有することを望まない場合に利用することができる。
提案手法の鍵となる考え方は,ガウス過程モデルの予測分散が予め定義されたプライバシーレベルに達するまで,データに合成ノイズを加えることである。
論文 参考訳(メタデータ) (2023-05-25T23:44:31Z) - Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism [2.84279467589473]
本稿では,差分プライバシーフレームワークと行列因数分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が機密性の高いユーザー情報を抽出するのを防ぐことができる。
論文 参考訳(メタデータ) (2023-04-11T13:50:39Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - A Differentially Private Framework for Deep Learning with Convexified
Loss Functions [4.059849656394191]
差分プライバシー(DP)は、基礎となるトレーニングセットのプライバシーを保護するためにディープラーニングに応用されている。
既存のDP実践は、客観的摂動、勾配摂動、出力摂動の3つのカテゴリに分類される。
本稿では,DPノイズをランダムにサンプリングしたニューロンに注入し,新しい出力摂動機構を提案する。
論文 参考訳(メタデータ) (2022-04-03T11:10:05Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。