論文の概要: Correlated Differential Privacy: Feature Selection in Machine Learning
- arxiv url: http://arxiv.org/abs/2010.03094v1
- Date: Wed, 7 Oct 2020 00:33:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 00:04:17.350957
- Title: Correlated Differential Privacy: Feature Selection in Machine Learning
- Title(参考訳): 相関微分プライバシー:機械学習における特徴選択
- Authors: Tao Zhang, Tianqing Zhu, Ping Xiong, Huan Huo, Zahir Tari, Wanlei Zhou
- Abstract要約: 提案手法は,データ相関の程度を管理し,プライバシを保護し,予測結果の正確性をサポートするための5つのステップを含む。
実験の結果,提案手法により,機械学習タスクによる予測精度が向上し,既存のスキームに比べて平均2乗誤差が少なくなることがわかった。
- 参考スコア(独自算出の注目度): 13.477069421691562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy preserving in machine learning is a crucial issue in industry
informatics since data used for training in industries usually contain
sensitive information. Existing differentially private machine learning
algorithms have not considered the impact of data correlation, which may lead
to more privacy leakage than expected in industrial applications. For example,
data collected for traffic monitoring may contain some correlated records due
to temporal correlation or user correlation. To fill this gap, we propose a
correlation reduction scheme with differentially private feature selection
considering the issue of privacy loss when data have correlation in machine
learning tasks. %The key to the proposed scheme is to describe the data
correlation and select features which leads to less data correlation across the
whole dataset. The proposed scheme involves five steps with the goal of
managing the extent of data correlation, preserving the privacy, and supporting
accuracy in the prediction results. In this way, the impact of data correlation
is relieved with the proposed feature selection scheme, and moreover, the
privacy issue of data correlation in learning is guaranteed. The proposed
method can be widely used in machine learning algorithms which provide services
in industrial areas. Experiments show that the proposed scheme can produce
better prediction results with machine learning tasks and fewer mean square
errors for data queries compared to existing schemes.
- Abstract(参考訳): 機械学習におけるプライバシ保護は、産業におけるトレーニングに使用されるデータが通常機密情報を含んでいるため、産業情報学において重要な問題である。
既存の差分プライベートな機械学習アルゴリズムは、データ相関の影響を考慮していないため、産業アプリケーションでは期待以上にプライバシリークが発生する可能性がある。
例えば、トラフィック監視のために収集されたデータは、時間的相関やユーザ相関による相関レコードを含むことができる。
このギャップを埋めるために,機械学習タスクにおいてデータが相関を持つ場合のプライバシ損失の問題を考慮した,差分プライベート特徴選択による相関低減手法を提案する。
% 提案手法の鍵は,データ相関を記述し,データセット全体のデータ相関を小さくする特徴を選択することである。
提案手法は,データ相関の程度を管理し,プライバシを保護し,予測結果の正確性をサポートするための5つのステップを含む。
このようにして、提案する特徴選択方式によりデータ相関の影響を緩和するとともに、学習におけるデータ相関のプライバシ問題も保証される。
提案手法は,産業分野のサービスを提供する機械学習アルゴリズムで広く利用することができる。
実験の結果,提案手法により,機械学習タスクによる予測精度が向上し,既存のスキームに比べて平均2乗誤差が少なくなった。
関連論文リスト
- Causal Discovery Under Local Privacy [5.7835417207193585]
ローカル差分プライバシーは、データプロバイダが個別にデータに民営化メカニズムを適用できる変種である。
局所的差分的私的メカニズムをよく知られており、それらが提供するプライバシと、アルゴリズムが因果学習のために生成する因果構造の正確性とのトレードオフを比較検討する。
論文 参考訳(メタデータ) (2023-11-07T14:44:27Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Approximate, Adapt, Anonymize (3A): a Framework for Privacy Preserving
Training Data Release for Machine Learning [3.29354893777827]
データリリースフレームワークである3A(Approximate, Adapt, Anonymize)を導入し、機械学習のデータユーティリティを最大化する。
本稿では,実データセットと民生データセットでトレーニングしたモデルの性能指標の相違が最小限に抑えられることを示す実験的な証拠を示す。
論文 参考訳(メタデータ) (2023-07-04T18:37:11Z) - Striving for data-model efficiency: Identifying data externalities on
group performance [75.17591306911015]
信頼できる、効果的で責任ある機械学習システムの構築は、トレーニングデータとモデリング決定の違いが、予測パフォーマンスにどのように影響するかを理解することに集中する。
我々は、特定のタイプのデータモデル非効率性に注目し、一部のソースからトレーニングデータを追加することで、集団の重要なサブグループで評価されるパフォーマンスを実際に低下させることができる。
以上の結果から,データ効率が正確かつ信頼性の高い機械学習の鍵となることが示唆された。
論文 参考訳(メタデータ) (2022-11-11T16:48:27Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - A Critical Overview of Privacy-Preserving Approaches for Collaborative
Forecasting [0.0]
異なるデータ所有者間の協力は、予測品質の改善につながる可能性がある。
ビジネス上の競争要因と個人データ保護の問題から、データ所有者はデータの共有を望まないかもしれない。
本稿では、現状を解析し、データプライバシを保証する既存の方法の欠点をいくつか明らかにする。
論文 参考訳(メタデータ) (2020-04-20T20:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。