論文の概要: Privacy-Preserving Boosting in the Local Setting
- arxiv url: http://arxiv.org/abs/2002.02096v1
- Date: Thu, 6 Feb 2020 04:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 10:00:30.973473
- Title: Privacy-Preserving Boosting in the Local Setting
- Title(参考訳): ローカル設定におけるプライバシー保護強化
- Authors: Sen Wang, J.Morris Chang
- Abstract要約: 機械学習では、複数のベース学習者と優れた学習者を組み合わせるように設計された最も一般的な方法の1つがブースティングである。
ビッグデータ時代において、個人や団体によって保持されるデータ(個人画像、閲覧履歴、国勢調査情報など)は、より機密性の高い情報を含む傾向にある。
ローカル微分プライバシーは、データ所有者に強力な保証を提供する効果的なプライバシー保護アプローチとして提案されている。
- 参考スコア(独自算出の注目度): 17.375582978294105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In machine learning, boosting is one of the most popular methods that
designed to combine multiple base learners to a superior one. The well-known
Boosted Decision Tree classifier, has been widely adopted in many areas. In the
big data era, the data held by individual and entities, like personal images,
browsing history and census information, are more likely to contain sensitive
information. The privacy concern raises when such data leaves the hand of the
owners and be further explored or mined. Such privacy issue demands that the
machine learning algorithm should be privacy aware. Recently, Local
Differential Privacy is proposed as an effective privacy protection approach,
which offers a strong guarantee to the data owners, as the data is perturbed
before any further usage, and the true values never leave the hands of the
owners. Thus the machine learning algorithm with the private data instances is
of great value and importance. In this paper, we are interested in developing
the privacy-preserving boosting algorithm that a data user is allowed to build
a classifier without knowing or deriving the exact value of each data samples.
Our experiments demonstrate the effectiveness of the proposed boosting
algorithm and the high utility of the learned classifiers.
- Abstract(参考訳): 機械学習において、boostingは、複数のベース学習者と優れた学習者を組み合わせた最も人気のある方法の1つである。
有名なBoosted Decision Tree分類器は、多くの地域で広く採用されている。
ビッグデータ時代において、個人や団体によって保持されるデータ(個人画像、閲覧履歴、国勢調査情報など)は、機密情報を含む可能性が高い。
このようなデータが所有者の手を離れ、さらなる調査や採掘が行われると、プライバシーの懸念が高まる。
このようなプライバシー問題は、機械学習アルゴリズムがプライバシーを意識する必要がある。
近年、ローカル微分プライバシー(Local Differential Privacy)は、データ所有者に強力な保証を提供する効果的なプライバシ保護アプローチとして提案されている。
したがって、プライベートデータインスタンスを持つ機械学習アルゴリズムは非常に価値と重要性がある。
本稿では,各データサンプルの正確な値を知らずに,データユーザが分類器を構築できるプライバシ保存型ブースティングアルゴリズムの開発に注目する。
本実験は,提案するブースティングアルゴリズムの有効性と,学習した分類器の高有用性を示す。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Private Boosted Decision Trees via Smooth Re-Weighting [2.099922236065961]
微分プライバシーは、正式なプライバシー保証のための適切な数学的枠組みである。
差分プライバシーを保証する決定木を向上するための実用的なアルゴリズムを提案し,検証する。
論文 参考訳(メタデータ) (2022-01-29T20:08:52Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z) - Privacy-Preserving Public Release of Datasets for Support Vector Machine
Classification [14.095523601311374]
我々は,データ対象者のプライバシーを侵害することなく,ベクトルマシン分類をサポートするデータセットを公開することの問題点を考察する。
データセットは、プライバシ保護のための付加ノイズを使用して、体系的に難読化される。
元のデータセットから抽出された分類器と難読化された分類器が互いに近接していることを保証する条件を確立する。
論文 参考訳(メタデータ) (2019-12-29T03:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。