論文の概要: On Differentially Private Online Predictions
- arxiv url: http://arxiv.org/abs/2302.14099v1
- Date: Mon, 27 Feb 2023 19:18:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 19:09:35.156925
- Title: On Differentially Private Online Predictions
- Title(参考訳): 個人別オンライン予測について
- Authors: Haim Kaplan, Yishay Mansour, Shay Moran, Kobbi Nissim, Uri Stemmer
- Abstract要約: オンラインプロセスを扱うために,共同微分プライバシーのインタラクティブなバリエーションを導入する。
グループプライバシ、コンポジション、ポストプロセッシングの(適切なバリエーション)を満たすことを実証する。
次に、オンライン分類の基本設定において、インタラクティブな共同プライバシーのコストについて検討する。
- 参考スコア(独自算出の注目度): 74.01773626153098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we introduce an interactive variant of joint differential
privacy towards handling online processes in which existing privacy definitions
seem too restrictive. We study basic properties of this definition and
demonstrate that it satisfies (suitable variants) of group privacy,
composition, and post processing. We then study the cost of interactive joint
privacy in the basic setting of online classification. We show that any
(possibly non-private) learning rule can be effectively transformed to a
private learning rule with only a polynomial overhead in the mistake bound.
This demonstrates a stark difference with more restrictive notions of privacy
such as the one studied by Golowich and Livni (2021), where only a double
exponential overhead on the mistake bound is known (via an information
theoretic upper bound).
- Abstract(参考訳): 本研究では、既存のプライバシー定義が制限的すぎるように見えるオンラインプロセスを扱うための、共同微分プライバシーのインタラクティブなバリエーションを導入する。
この定義の基本的な性質を調査し,グループプライバシ,コンポジション,ポスト処理の(適当な変種)を満たすことを示す。
次に,オンライン分類の基本設定における対話型共同プライバシのコストについて検討する。
その結果,任意の(おそらく非プライベートな)学習ルールを,多項式のオーバーヘッドのみを境界とするプライベート学習ルールに効果的に変換できることが示されている。
これは、golowich と livni (2021) によって研究された、(情報理論上の上界を通じて)誤り境界の2倍の指数的オーバーヘッドしか知られていないような、より制限的なプライバシー概念との大きな違いを示す。
関連論文リスト
- The Limits of Differential Privacy in Online Learning [11.099792269219124]
DP,純DP,近似DPの3種類の制約を分離する証拠を提示する。
まず、近似DPではオンライン学習可能であるが、適応的逆数設定では純粋DPではオンライン学習できない仮説クラスについて述べる。
そして、どんなオンライン学習者でも、ほぼ全ての仮説クラスに対して無限の誤りを犯さなければならないことを証明します。
論文 参考訳(メタデータ) (2024-11-08T11:21:31Z) - Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Formalization of Differential Privacy in Isabelle/HOL [0.16574413179773761]
本稿では,Isabelle/HOLライブラリを提案する。
我々の知る限り、これは連続確率分布をサポートする微分プライバシーの最初の形式化である。
論文 参考訳(メタデータ) (2024-10-20T13:06:13Z) - Optimal Private Discrete Distribution Estimation with One-bit Communication [63.413106413939836]
1ビット通信制約を伴う個別分布推定問題を考える。
1ビット通信制約下での最悪のトレードオフの1次を特徴付ける。
これらの結果は,1ビット通信制約下でのプライバシユーティリティトレードオフの最適依存性を示す。
論文 参考訳(メタデータ) (2023-10-17T05:21:19Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Differentially Private Supervised Manifold Learning with Applications
like Private Image Retrieval [14.93584434176082]
教師付き多様体学習のための微分プライベートな textitPrivateMail を提案する。
我々は,提案手法の計算効率と実用性に加えて,広範なプライバシ利用トレードオフ結果を示す。
論文 参考訳(メタデータ) (2021-02-22T06:58:46Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。