論文の概要: Privacy-preserving Non-negative Matrix Factorization with Outliers
- arxiv url: http://arxiv.org/abs/2211.01451v1
- Date: Wed, 2 Nov 2022 19:42:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 13:46:26.422089
- Title: Privacy-preserving Non-negative Matrix Factorization with Outliers
- Title(参考訳): 外周波を用いたプライバシー保護非負行列分解
- Authors: Swapnil Saha and Hafiz Imtiaz
- Abstract要約: プライバシー保護フレームワークにおける非負行列分解アルゴリズムの開発に焦点をあてる。
プライベートデータを操作可能な非負行列分解のための新しいプライバシ保存アルゴリズムを提案する。
提案するフレームワークの性能を6つの実データ集合で示す。
- 参考スコア(独自算出の注目度): 2.84279467589473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-negative matrix factorization is a popular unsupervised machine learning
algorithm for extracting meaningful features from data which are inherently
non-negative. However, such data sets may often contain privacy-sensitive user
data, and therefore, we may need to take necessary steps to ensure the privacy
of the users while analyzing the data. In this work, we focus on developing a
Non-negative matrix factorization algorithm in the privacy-preserving
framework. More specifically, we propose a novel privacy-preserving algorithm
for non-negative matrix factorisation capable of operating on private data,
while achieving results comparable to those of the non-private algorithm. We
design the framework such that one has the control to select the degree of
privacy grantee based on the utility gap. We show our proposed framework's
performance in six real data sets. The experimental results show that our
proposed method can achieve very close performance with the non-private
algorithm under some parameter regime, while ensuring strict privacy.
- Abstract(参考訳): 非負行列分解は、本質的に非負であるデータから有意な特徴を抽出する、一般的な教師なし機械学習アルゴリズムである。
しかし、そのようなデータセットは、しばしばプライバシーに敏感なユーザーデータを含んでいるため、データを分析しながらユーザーのプライバシーを確保するために必要なステップを取る必要がある。
本研究では,プライバシー保護フレームワークにおける非負行列分解アルゴリズムの開発に焦点をあてる。
より具体的には、プライベートデータを操作できる非負行列分解のための新しいプライバシ保存アルゴリズムを提案し、非プライベートアルゴリズムに匹敵する結果を達成した。
我々は,ユーティリティギャップに基づいてプライバシ付与の程度を選択する権限を有するフレームワークを設計した。
提案するフレームワークの性能を6つの実際のデータセットで示す。
実験の結果,提案手法は,厳密なプライバシを確保しつつ,パラメータ構造下で非プライベートアルゴリズムで非常に密接な性能が得られることがわかった。
関連論文リスト
- Private Optimal Inventory Policy Learning for Feature-based Newsvendor with Unknown Demand [13.594765018457904]
本稿では, f-differential privacy framework内で, プライバシ保護に最適な在庫ポリシーを推定するための新しいアプローチを提案する。
最適在庫推定のための畳み込み平滑化に基づくクリップ付き雑音勾配降下アルゴリズムを開発した。
提案手法は,コストを極端に増大させることなく,望ましいプライバシー保護を実現することができることを示す。
論文 参考訳(メタデータ) (2024-04-23T19:15:43Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism [2.84279467589473]
本稿では,差分プライバシーフレームワークと行列因数分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が機密性の高いユーザー情報を抽出するのを防ぐことができる。
論文 参考訳(メタデータ) (2023-04-11T13:50:39Z) - Decentralized Matrix Factorization with Heterogeneous Differential
Privacy [2.4743508801114444]
信頼できないリコメンデータに対して, 異種差分行列分解アルゴリズム(HDPMF)を提案する。
我々のフレームワークは、プライバシと精度のトレードオフを改善するために、革新的な再スケーリングスキームを備えた拡張ストレッチ機構を使用している。
論文 参考訳(メタデータ) (2022-12-01T06:48:18Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z) - Privacy-Preserving Public Release of Datasets for Support Vector Machine
Classification [14.095523601311374]
我々は,データ対象者のプライバシーを侵害することなく,ベクトルマシン分類をサポートするデータセットを公開することの問題点を考察する。
データセットは、プライバシ保護のための付加ノイズを使用して、体系的に難読化される。
元のデータセットから抽出された分類器と難読化された分類器が互いに近接していることを保証する条件を確立する。
論文 参考訳(メタデータ) (2019-12-29T03:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。