論文の概要: Learning Differentially Private Mechanisms
- arxiv url: http://arxiv.org/abs/2101.00961v1
- Date: Mon, 4 Jan 2021 13:33:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 22:47:58.103460
- Title: Learning Differentially Private Mechanisms
- Title(参考訳): 異なるプライベートなメカニズムを学習する
- Authors: Subhajit Roy, Justin Hsu, Aws Albarghouthi
- Abstract要約: 特定の非プライベートプログラムの正確で微分的なプライベートバージョンを自動的に学習する手法を提案する。
本手法は, 差分プライバシー文献から基礎的アルゴリズムを学習し, 自然なプログラム合成ベースラインを著しく上回っていることを示す。
- 参考スコア(独自算出の注目度): 13.40946759638048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy is a formal, mathematical definition of data privacy
that has gained traction in academia, industry, and government. The task of
correctly constructing differentially private algorithms is non-trivial, and
mistakes have been made in foundational algorithms. Currently, there is no
automated support for converting an existing, non-private program into a
differentially private version. In this paper, we propose a technique for
automatically learning an accurate and differentially private version of a
given non-private program. We show how to solve this difficult program
synthesis problem via a combination of techniques: carefully picking
representative example inputs, reducing the problem to continuous optimization,
and mapping the results back to symbolic expressions. We demonstrate that our
approach is able to learn foundational algorithms from the differential privacy
literature and significantly outperforms natural program synthesis baselines.
- Abstract(参考訳): 差分プライバシー(differial privacy)は、データプライバシーの形式的数学的定義であり、学術、産業、政府で注目を集めている。
微分プライベートアルゴリズムを正しく構築するタスクは非自明であり、基本的なアルゴリズムでは誤りを犯している。
現在、既存の非プライベートプログラムを微分プライベートバージョンに変換するための自動サポートはない。
本稿では,与えられた非プライベートプログラムの正確かつ差分プライベートバージョンを自動的に学習する手法を提案する。
提案手法は, サンプル入力を慎重に選択し, 問題を連続最適化に還元し, 結果をシンボリック表現にマッピングする手法と組み合わせて, この難解なプログラム合成問題を解く方法を示す。
本手法は, 差分プライバシー文献から基礎的アルゴリズムを学習し, 自然なプログラム合成ベースラインを著しく上回っていることを示す。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Stochastic Differentially Private and Fair Learning [7.971065005161566]
我々は、収束することが保証されるフェアラーニングのための最初の微分プライベートアルゴリズムを提供する。
われわれのフレームワークは、人口格差や均等化オッズなど、さまざまな公平さを許容できるほど柔軟である。
本アルゴリズムは,複数の(非バイナリ)機密属性を持つ非バイナリ分類タスクに適用可能である。
論文 参考訳(メタデータ) (2022-10-17T06:54:57Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Improving the Algorithm of Deep Learning with Differential Privacy [0.0]
深層学習モデルに対するDPSGDアルゴリズムの最適化を提案する。
このアイデアは自然で解釈可能であり、最先端技術に関する実用性の向上に貢献している。
論文 参考訳(メタデータ) (2021-07-12T14:28:12Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - Tighter Generalization Bounds for Iterative Differentially Private
Learning Algorithms [95.73230376153872]
本稿では,反復学習アルゴリズムにおける一般化とプライバシ保護の関係を2つのステップで検討する。
我々は、$(varepsilon, delta)$-differential privacyは、マルチデータベース学習アルゴリズムに縛られる平均的な一般化を意味することを証明している。
次に,ほとんどの学習アルゴリズムが共有する反復的な性質が,プライバシーの保護とさらなる一般化にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2020-07-18T09:12:03Z) - Privately Learning Markov Random Fields [44.95321417724914]
我々は、差分プライバシーの制約の下でランダムフィールド(イジングモデルを含む)を学習する問題を考察する。
私たちは、さまざまなプライバシー制約の下で、両方の問題に対してアルゴリズムと低いバウンダリを提供します。
論文 参考訳(メタデータ) (2020-02-21T18:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。