論文の概要: Classification with Partially Private Features
- arxiv url: http://arxiv.org/abs/2312.07583v1
- Date: Mon, 11 Dec 2023 01:41:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 18:12:31.330734
- Title: Classification with Partially Private Features
- Title(参考訳): 部分的私的特徴の分類
- Authors: Zeyu Shen, Anilesh Krishnaswamy, Janardhan Kulkarni, Kamesh Munagala
- Abstract要約: いくつかの特徴が敏感である場合、他の特徴とラベルがそうでない場合、異なるプライベートな分類を検討する。
私たちの主な貢献は、AdaBoostの新規な適応である。
- 参考スコア(独自算出の注目度): 15.234582018020213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider differentially private classification when some
features are sensitive, while the rest of the features and the label are not.
We adapt the definition of differential privacy naturally to this setting. Our
main contribution is a novel adaptation of AdaBoost that is not only provably
differentially private, but also significantly outperforms a natural benchmark
that assumes the entire data of the individual is sensitive in the experiments.
As a surprising observation, we show that boosting randomly generated
classifiers suffices to achieve high accuracy. Our approach easily adapts to
the classical setting where all the features are sensitive, providing an
alternate algorithm for differentially private linear classification with a
much simpler privacy proof and comparable or higher accuracy than
differentially private logistic regression on real-world datasets.
- Abstract(参考訳): 本稿では,一部の特徴が敏感である場合と,他の特徴やラベルがそうでない場合の個人分類について考察する。
私たちはこの設定に自然に差分プライバシーの定義を適用します。
私たちの主な貢献は、AdaBoostの新規な適応であり、これは証明可能な差分プライベートであるだけでなく、個々のデータが実験に敏感であると仮定する自然なベンチマークよりもはるかに優れています。
驚くべき観察として,ランダムに生成された分類器を増加させることで精度が向上することを示す。
提案手法は,すべての特徴がセンシティブな古典的設定に容易に適応し,より単純なプライバシー証明と,実世界のデータセットにおける微分プライベートロジスティック回帰よりも高い精度で,微分プライベートな線形分類のための代替アルゴリズムを提供する。
関連論文リスト
- Minimax And Adaptive Transfer Learning for Nonparametric Classification under Distributed Differential Privacy Constraints [6.042269506496206]
まず、プライバシ制約、ソースサンプル、ターゲットサンプルが分類精度に与える影響を正確に評価し、ミニマックスの誤分類率を確立する。
その結果、興味深い位相遷移現象が明らかとなり、プライバシーの保護と分類精度の達成との複雑なトレードオフが浮き彫りになった。
論文 参考訳(メタデータ) (2024-06-28T17:55:41Z) - Optimal Unbiased Randomizers for Regression with Label Differential
Privacy [61.63619647307816]
ラベル差分プライバシ(DP)の制約の下で回帰モデルをトレーニングするためのラベルランダム化器の新たなファミリーを提案する。
これらのランダム化器は、いくつかのデータセット上で最先端のプライバシユーティリティトレードオフを実現することを実証する。
論文 参考訳(メタデータ) (2023-12-09T19:58:34Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Causal Effect Regularization: Automated Detection and Removal of
Spurious Attributes [13.852987916253685]
多くの分類データセットでは、タスクラベルはいくつかの入力属性と突発的に相関している。
本稿では,ラベルに対する因果関係を推定することにより,スプリアス属性を自動的に識別する手法を提案する。
本手法は, 因果効果のノイズ評価においても, 突発性特性への依存を緩和する。
論文 参考訳(メタデータ) (2023-06-19T17:17:42Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Determination of class-specific variables in nonparametric
multiple-class classification [0.0]
確率に基づく非パラメトリックな多重クラス分類法を提案し、それを個々のクラスに対して高い影響変数を識別する能力と統合する。
提案手法の特性を報告し, 合成データと実データの両方を用いて, 異なる分類条件下での特性を説明する。
論文 参考訳(メタデータ) (2022-05-07T10:08:58Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Selecting the suitable resampling strategy for imbalanced data
classification regarding dataset properties [62.997667081978825]
医学、情報検索、サイバーセキュリティ、ソーシャルメディアなどの多くのアプリケーションドメインでは、分類モデルの導入に使用されるデータセットは、各クラスのインスタンスの不平等な分布を持つことが多い。
この状況は不均衡データ分類と呼ばれ、少数民族の例では予測性能が低い。
オーバーサンプリングとアンダーサンプリングの技術は、各クラスの例の数とバランスをとることでこの問題に対処する、よく知られた戦略である。
論文 参考訳(メタデータ) (2021-12-15T18:56:39Z) - Label differential privacy via clustering [27.485176618438842]
トレーニングセット内のラベルのプライバシのみを保護する差分プライベート機械学習のための新しいメカニズムを提案する。
提案機構は,これらの特徴ベクトルを用いてトレーニングセット内のサンプルをクラスタリングし,同一クラスタ内のサンプルから各ラベルをランダムに再サンプリングし,ノイズラベルと真の損失関数の修正版を出力する。
クラスタが大規模かつ高品質である場合、ノイズの多いトレーニングセットにおける変更損失を最小限に抑えるモデルが、非プライベート学習の速度に匹敵する速度で小さな過剰リスクに収束することを示す。
論文 参考訳(メタデータ) (2021-10-05T16:47:27Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。