論文の概要: Private Outsourced Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2010.12799v1
- Date: Sat, 24 Oct 2020 06:30:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 12:36:50.341749
- Title: Private Outsourced Bayesian Optimization
- Title(参考訳): プライベートアウトソースのベイズ最適化
- Authors: Dmitrii Kharkovskii, Zhongxiang Dai, Bryan Kian Hsiang Low
- Abstract要約: 本稿では,プライベートアウトソース型プロセスアップパー信頼境界(PO-GP-UCB)アルゴリズムを提案する。
これは、証明可能な性能保証を備えたアウトソース設定において、プライバシ保護ベイズ最適化(BO)のための最初のアルゴリズムである。
合成および実世界のデータセットを用いたPO-GP-UCBアルゴリズムの性能を実証的に評価した。
- 参考スコア(独自算出の注目度): 34.05213187784519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the private-outsourced-Gaussian process-upper confidence
bound (PO-GP-UCB) algorithm, which is the first algorithm for
privacy-preserving Bayesian optimization (BO) in the outsourced setting with a
provable performance guarantee. We consider the outsourced setting where the
entity holding the dataset and the entity performing BO are represented by
different parties, and the dataset cannot be released non-privately. For
example, a hospital holds a dataset of sensitive medical records and outsources
the BO task on this dataset to an industrial AI company. The key idea of our
approach is to make the BO performance of our algorithm similar to that of
non-private GP-UCB run using the original dataset, which is achieved by using a
random projection-based transformation that preserves both privacy and the
pairwise distances between inputs. Our main theoretical contribution is to show
that a regret bound similar to that of the standard GP-UCB algorithm can be
established for our PO-GP-UCB algorithm. We empirically evaluate the
performance of our PO-GP-UCB algorithm with synthetic and real-world datasets.
- Abstract(参考訳): 本稿では,プライバシ保護型ベイズ最適化(BO)のための最初のアルゴリズムであるPO-GP-UCBアルゴリズムを提案する。
我々は、データセットを保持するエンティティと実行されるエンティティが異なるパーティによって表現され、データセットを非プライベートにリリースできないアウトソース設定を検討する。
例えば、病院は機密医療記録のデータセットを保持し、このデータセット上のBOタスクを産業AI企業にアウトソースする。
提案手法の鍵となる考え方は,プライバシと入力間のペア距離の両方を保護したランダムなプロジェクションベース変換を用いて,元のデータセットを用いた非プライベートGP-UCBと同じようなBO性能を実現することである。
我々の理論的な主な貢献は、標準GP-UCBアルゴリズムと類似した後悔がPO-GP-UCBアルゴリズムに確立できることである。
合成および実世界のデータセットを用いたPO-GP-UCBアルゴリズムの性能を実証的に評価した。
関連論文リスト
- CURATE: Scaling-up Differentially Private Causal Graph Discovery [8.471466670802817]
因果グラフ発見(CGD)におけるユーザのプライバシを確保するために、差分プライバシー(DP)が採用されている。
CURATEは、適応的なプライバシー予算を持つDP-CGDフレームワークである。
CURATEは従来のDP-CGDアルゴリズムに比べてプライバシー保護の少ない高効率を実現していることを示す。
論文 参考訳(メタデータ) (2024-09-27T18:00:38Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Privacy-Preserving and Lossless Distributed Estimation of
High-Dimensional Generalized Additive Mixed Models [0.9023847175654603]
CWBを用いたGAMM(Generalized Additive Mixed Model)の分散・プライバシ保存・ロスレス推定アルゴリズムを提案する。
我々のCWBの適応は、偏りのない特徴選択や高次元特徴空間におけるモデル適合性など、元のアルゴリズムのすべての重要な特性を保っている。
また, 分散心疾患データセット上でのアルゴリズムの有効性を実証し, 最先端の手法と比較した。
論文 参考訳(メタデータ) (2022-10-14T11:41:18Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Differentially Private Federated Bayesian Optimization with Distributed
Exploration [48.9049546219643]
我々は、DPを反復アルゴリズムに追加するための一般的なフレームワークを通じて、ディープニューラルネットワークのトレーニングに差分プライバシ(DP)を導入する。
DP-FTS-DEは高い実用性(競争性能)と高いプライバシー保証を実現する。
また,DP-FTS-DEがプライバシとユーティリティのトレードオフを引き起こすことを示すために,実世界の実験も行っている。
論文 参考訳(メタデータ) (2021-10-27T04:11:06Z) - Iterative Methods for Private Synthetic Data: Unifying Framework and New
Methods [18.317488965846636]
クエリリリースのためのプライベート合成データ生成について検討する。
目標は、差分プライバシーの対象となるセンシティブデータセットの衛生バージョンを構築することだ。
本枠組みでは,2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-14T04:19:35Z) - No-Regret Algorithms for Private Gaussian Process Bandit Optimization [13.660643701487002]
プライバシー保護統計のレンズによるガウス過程(GP)帯域最適化の至るところでの問題点を考察する。
均一なカーネル近似器とランダムな摂動を組み合わせた差分プライベートGPバンディット最適化のためのソリューションを提案する。
我々のアルゴリズムは最適化手順を通して微分プライバシを保持し、予測のためのサンプルパスに明示的に依存しない。
論文 参考訳(メタデータ) (2021-02-24T18:52:24Z) - Local Differential Privacy for Bayesian Optimization [12.05395706770007]
局所微分プライバシー(LDP)を保証した非パラメトリックガウス過程におけるブラックボックス最適化について検討する。
具体的には、各ユーザの報酬は、プライバシーを保護するためにさらに悪化し、学習者は、後悔を最小限に抑えるために、破損した報酬にのみアクセスすることができる。
GP-UCBフレームワークとLaplace DP機構に基づく3つのほぼ最適なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-13T21:50:09Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。