論文の概要: An Optimal and Scalable Matrix Mechanism for Noisy Marginals under
Convex Loss Functions
- arxiv url: http://arxiv.org/abs/2305.08175v1
- Date: Sun, 14 May 2023 14:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 17:05:49.194303
- Title: An Optimal and Scalable Matrix Mechanism for Noisy Marginals under
Convex Loss Functions
- Title(参考訳): 凸損失関数下での雑音場に対する最適かつスケーラブルな行列機構
- Authors: Yingtai Xiao, Guanlin He, Danfeng Zhang, Daniel Kifer
- Abstract要約: ノイズの限界は機密性保護データリリースの一般的な形式であり、多くのダウンストリームタスクに役立ちます。
最適かつスケーラブルなガウス雑音を持つ辺縁系に対する行列機構であるResidualPlannerを提案する。
- 参考スコア(独自算出の注目度): 15.42342204062733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Noisy marginals are a common form of confidentiality-protecting data release
and are useful for many downstream tasks such as contingency table analysis,
construction of Bayesian networks, and even synthetic data generation. Privacy
mechanisms that provide unbiased noisy answers to linear queries (such as
marginals) are known as matrix mechanisms.
We propose ResidualPlanner, a matrix mechanism for marginals with Gaussian
noise that is both optimal and scalable. ResidualPlanner can optimize for many
loss functions that can be written as a convex function of marginal variances
(prior work was restricted to just one predefined objective function).
ResidualPlanner can optimize the accuracy of marginals in large scale settings
in seconds, even when the previous state of the art (HDMM) runs out of memory.
It even runs on datasets with 100 attributes in a couple of minutes.
Furthermore ResidualPlanner can efficiently compute variance/covariance values
for each marginal (prior methods quickly run out of memory, even for relatively
small datasets).
- Abstract(参考訳): ノイズ境界は機密性保護データリリースの一般的な形態であり、並行性テーブル解析、ベイズネットワークの構築、合成データ生成など多くの下流タスクに有用である。
線形クエリ(例えば境界)に対するバイアスのないノイズ応答を提供するプライバシメカニズムは、行列メカニズムとして知られている。
そこで本研究では,gaussian noiseを伴う辺縁系の行列機構であるsustainsplannerを提案する。
ResidualPlannerは、余分な分散の凸関数として記述できる多くの損失関数に対して最適化できる(事前の作業は1つの事前定義された目的関数に制限される)。
ResidualPlannerは、前回のHDMM(HDMM)がメモリが切れた場合でも、大規模な設定でマーサルの精度を数秒で最適化できる。
数分で100の属性を持つデータセット上でも動作する。
さらにResidualPlannerは、各辺の分散/共分散値を効率的に計算できる(比較的小さなデータセットであっても、適切なメソッドはすぐにメモリが切れる)。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Bounded and Unbiased Composite Differential Privacy [25.427802467876248]
差分プライバシ(DP)の目的は、隣接する2つのデータベース間で区別できない出力分布を生成することにより、プライバシを保護することである。
既存のソリューションでは、後処理やトランケーション技術を使ってこの問題に対処しようとしている。
本稿では,合成確率密度関数を用いて有界および非偏りの出力を生成する新しい微分プライベート機構を提案する。
論文 参考訳(メタデータ) (2023-11-04T04:43:47Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Markov Decision
Processes [80.89852729380425]
そこで本研究では,最小限の最小残差である$tilde O(dsqrtH3K)$を計算効率よく実現したアルゴリズムを提案する。
我々の研究は線形 MDP を用いた最適 RL に対する完全な答えを提供する。
論文 参考訳(メタデータ) (2022-12-12T18:58:59Z) - Efficient Global Planning in Large MDPs via Stochastic Primal-Dual
Optimization [12.411844611718958]
提案手法は, 生成モデルに対する多数のクエリの後に, ほぼ最適ポリシーを出力することを示す。
提案手法は計算効率が高く,低次元パラメータベクトルでコンパクトに表現される単一のソフトマックスポリシーを出力する点が大きな利点である。
論文 参考訳(メタデータ) (2022-10-21T15:49:20Z) - Bayesian Optimization for Macro Placement [48.55456716632735]
本研究では,系列対上のベイズ最適化(BO)を用いた新しいマクロ配置法を提案する。
BOは確率的代理モデルと獲得関数を利用する機械学習技術である。
固定アウトラインマクロ配置問題に対して, 半周波線長目標を用いたアルゴリズムを実証する。
論文 参考訳(メタデータ) (2022-07-18T06:17:06Z) - Nearly Minimax Optimal Offline Reinforcement Learning with Linear
Function Approximation: Single-Agent MDP and Markov Game [34.69723238900705]
オフライン強化学習(RL)は、環境とのさらなる相互作用を伴わずに、事前コンパイルされたデータセットを使用して最適な戦略を学ぶことを目的としている。
オフライン単一エージェントMDPと2プレーヤゼロサムマルコフゲーム(MG)のための2つの新しいアルゴリズムを提案する。
我々の知る限り、これらは線形関数近似を用いたオフライン単エージェントMDPとMGのための計算効率が良く、最小に近い最適化アルゴリズムである。
論文 参考訳(メタデータ) (2022-05-31T02:50:17Z) - Pessimistic Minimax Value Iteration: Provably Efficient Equilibrium
Learning from Offline Datasets [101.5329678997916]
両プレイヤーゼロサムマルコフゲーム(MG)をオフライン環境で研究する。
目標は、事前収集されたデータセットに基づいて、近似的なナッシュ均衡(NE)ポリシーペアを見つけることである。
論文 参考訳(メタデータ) (2022-02-15T15:39:30Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Fundamental Limits of Ridge-Regularized Empirical Risk Minimization in
High Dimensions [41.7567932118769]
経験的リスク最小化アルゴリズムは、様々な推定や予測タスクで広く利用されている。
本稿では,コンベックスEMMの統計的精度に関する基礎的限界を推論のために初めて特徴づける。
論文 参考訳(メタデータ) (2020-06-16T04:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。