論文の概要: Improved Bounds for Pure Private Agnostic Learning: Item-Level and User-Level Privacy
- arxiv url: http://arxiv.org/abs/2407.20640v1
- Date: Tue, 30 Jul 2024 08:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 17:59:37.434941
- Title: Improved Bounds for Pure Private Agnostic Learning: Item-Level and User-Level Privacy
- Title(参考訳): 純私的匿名学習のための改善された境界:アイテムレベルとユーザレベルプライバシ
- Authors: Bo Li, Wei Wang, Peng Ye,
- Abstract要約: 学習プロセスの実践を反映したフレームワークである無知モデルで純粋にプライベートな学習を研究する。
項目レベル(各ユーザが1つの例にコントリビュートする場所)とユーザレベル(各ユーザが複数の例にコントリビュートする場所)のプライバシについて検討する。
- 参考スコア(独自算出の注目度): 11.099792269219124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning has made remarkable progress in a wide range of fields. In many scenarios, learning is performed on datasets involving sensitive information, in which privacy protection is essential for learning algorithms. In this work, we study pure private learning in the agnostic model -- a framework reflecting the learning process in practice. We examine the number of users required under item-level (where each user contributes one example) and user-level (where each user contributes multiple examples) privacy and derive several improved upper bounds. For item-level privacy, our algorithm achieves a near optimal bound for general concept classes. We extend this to the user-level setting, rendering a tighter upper bound than the one proved by Ghazi et al. (2023). Lastly, we consider the problem of learning thresholds under user-level privacy and present an algorithm with a nearly tight user complexity.
- Abstract(参考訳): 機械学習は幅広い分野において顕著な進歩を遂げた。
多くのシナリオでは、学習アルゴリズムにプライバシー保護が不可欠である機密情報を含むデータセット上で学習が行われる。
本研究では,学習プロセスの実践を反映したフレームワークである非依存モデルにおける純粋私的学習について検討する。
項目レベル(各ユーザが1つの例に貢献する場所)とユーザレベル(各ユーザが複数の例に貢献する場所)で必要とされるユーザ数を調べ、いくつかの改善された上限を導出する。
アイテムレベルのプライバシでは、一般的な概念クラスに対して、アルゴリズムがほぼ最適な境界を達成できる。
我々はこれをユーザレベルの設定に拡張し、Ghazi et al (2023) によって証明されたものよりも厳密な上界を描画する。
最後に、ユーザレベルのプライバシの下での学習しきい値の問題について考察し、ほぼ厳密なユーザ複雑性を持つアルゴリズムを提案する。
関連論文リスト
- Differentially Private Active Learning: Balancing Effective Data Selection and Privacy [11.716423801223776]
標準学習設定のための差分プライベートアクティブラーニング(DP-AL)を導入する。
本研究では,DP-SGDトレーニングをALに統合することで,プライバシ予算の割り当てやデータ利用において大きな課題が生じることを実証する。
視覚および自然言語処理タスクに関する実験は,DP-ALが特定のデータセットやモデルアーキテクチャの性能を向上させることを示す。
論文 参考訳(メタデータ) (2024-10-01T09:34:06Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - User-Level Differential Privacy With Few Examples Per User [73.81862394073308]
サンプルスカース方式では,各ユーザが少数のサンプルしか持たないため,以下の結果が得られる。
近似DPについては,任意の項目レベルDPアルゴリズムをユーザレベルDPアルゴリズムに汎用変換する。
ユーザレベル設定に指数的機構(McSherry, Talwar FOCS 2007)を適用するための簡単な手法を提案する。
論文 参考訳(メタデータ) (2023-09-21T21:51:55Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Tighter Generalization Bounds for Iterative Differentially Private
Learning Algorithms [95.73230376153872]
本稿では,反復学習アルゴリズムにおける一般化とプライバシ保護の関係を2つのステップで検討する。
我々は、$(varepsilon, delta)$-differential privacyは、マルチデータベース学習アルゴリズムに縛られる平均的な一般化を意味することを証明している。
次に,ほとんどの学習アルゴリズムが共有する反復的な性質が,プライバシーの保護とさらなる一般化にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2020-07-18T09:12:03Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z) - Differentially Private Deep Learning with Smooth Sensitivity [144.31324628007403]
プライバシーに関する懸念を、差分プライバシーのレンズを通して研究する。
このフレームワークでは、モデルのトレーニングに使用されるデータの詳細が曖昧になるようにモデルを摂動することで、一般的にプライバシー保証が得られます。
過去の研究で使われた最も重要なテクニックの1つは、教師モデルのアンサンブルであり、ノイズの多い投票手順に基づいて生徒に情報を返す。
本研究では,イミュータブルノイズArgMaxと呼ばれるスムーズな感性を有する新しい投票機構を提案する。これは,ある条件下では,学生に伝達される有用な情報に影響を与えることなく,教師から非常に大きなランダムノイズを発生させることができる。
論文 参考訳(メタデータ) (2020-03-01T15:38:00Z) - Privacy-Preserving Boosting in the Local Setting [17.375582978294105]
機械学習では、複数のベース学習者と優れた学習者を組み合わせるように設計された最も一般的な方法の1つがブースティングである。
ビッグデータ時代において、個人や団体によって保持されるデータ(個人画像、閲覧履歴、国勢調査情報など)は、より機密性の高い情報を含む傾向にある。
ローカル微分プライバシーは、データ所有者に強力な保証を提供する効果的なプライバシー保護アプローチとして提案されている。
論文 参考訳(メタデータ) (2020-02-06T04:48:51Z) - Efficient, Noise-Tolerant, and Private Learning via Boosting [15.62988331732388]
本研究では,大規模ハーフスペースのための耐雑音性とプライベートなPAC学習者を構築する方法について述べる。
この最初の境界は、プライバシからPAC学習者を取得するための一般的な方法論を示している。
2つ目の境界は、大きな有理半空間の微分プライベート学習において最もよく知られたサンプルの複雑さに適合する標準手法を使用する。
論文 参考訳(メタデータ) (2020-02-04T03:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。