論文の概要: Privacy Preserving K-Means Clustering: A Secure Multi-Party Computation
Approach
- arxiv url: http://arxiv.org/abs/2009.10453v1
- Date: Tue, 22 Sep 2020 11:19:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 22:08:52.513126
- Title: Privacy Preserving K-Means Clustering: A Secure Multi-Party Computation
Approach
- Title(参考訳): プライバシ保護k-meansクラスタリング:セキュアなマルチパーティ計算アプローチ
- Authors: Daniel Hurtado Ram\'irez, J. M. Au\~n\'on
- Abstract要約: プライバシ保護機械学習(PPML)は、暗号化技術を用いて、この難しさを克服するのに役立つ。
本稿では,K-meansに適用されたプライバシ保護機械学習について,最近のクリプトグラフィー分野のプロトコルを用いて検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Knowledge discovery is one of the main goals of Artificial Intelligence. This
Knowledge is usually stored in databases spread in different environments,
being a tedious (or impossible) task to access and extract data from them. To
this difficulty we must add that these datasources may contain private data,
therefore the information can never leave the source. Privacy Preserving
Machine Learning (PPML) helps to overcome this difficulty, employing
cryptographic techniques, allowing knowledge discovery while ensuring data
privacy. K-means is one of the data mining techniques used in order to discover
knowledge, grouping data points in clusters that contain similar features. This
paper focuses in Privacy Preserving Machine Learning applied to K-means using
recent protocols from the field of criptography. The algorithm is applied to
different scenarios where data may be distributed either horizontally or
vertically.
- Abstract(参考訳): 知識発見は人工知能の主要な目標の1つだ。
この知識は、通常、異なる環境に分散したデータベースに保存され、それらからデータにアクセスして抽出する退屈なタスク(あるいは不可能)である。
このような困難のために、これらのデータソースがプライベートデータを含む可能性があるため、情報はソースを離れることができない。
プライバシ保護機械学習(PPML)は、この困難を克服し、暗号化技術を採用し、データのプライバシを確保しながら知識発見を可能にする。
K-meansは、知識を発見し、類似した特徴を含むクラスタにデータポイントをグループ化するために使用されるデータマイニング技術の1つである。
本稿では,K-meansに適用されたプライバシ保護機械学習について,最近のクリプトグラフィー分野のプロトコルを用いて述べる。
このアルゴリズムは、データを水平または垂直に分散できるさまざまなシナリオに適用される。
関連論文リスト
- Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Randomized Quantization is All You Need for Differential Privacy in
Federated Learning [1.9785872350085876]
量子化と差分プライバシーを組み合わせたフェデレーション学習のアプローチを検討する。
我々は textbfRandomized textbfQuantization textbfMechanism (RQM) と呼ばれる新しいアルゴリズムを開発した。
アルゴリズムの性能を実証的に研究し、これまでの研究と比較すると、プライバシーと精度のトレードオフが改善されていることを示す。
論文 参考訳(メタデータ) (2023-06-20T21:54:13Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Differentially Private Vertical Federated Clustering [13.27934054846057]
多くのアプリケーションでは、複数のパーティが同じユーザのセットに関するプライベートデータを持っているが、非結合な属性のセットについてである。
データ対象者のプライバシーを保護しながらモデル学習を可能にするためには、垂直連合学習(VFL)技術が必要である。
本論文で提案するアルゴリズムは, 個人用垂直結合型K平均クラスタリングのための最初の実用的な解法である。
論文 参考訳(メタデータ) (2022-08-02T19:23:48Z) - Weight Divergence Driven Divide-and-Conquer Approach for Optimal
Federated Learning from non-IID Data [0.0]
Federated Learningは、トレーニングデータを集中化することなく、分散デバイスに格納されたデータのトレーニングを可能にする。
本稿では,一般的なFedAvgアグリゲーションアルゴリズムの活用を可能にする,新しいDivide-and-Conquerトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T09:34:20Z) - FedOCR: Communication-Efficient Federated Learning for Scene Text
Recognition [76.26472513160425]
本研究では、分散化されたデータセットを用いて、ロバストなシーンテキスト認識器を訓練する方法について研究する。
FedOCRをエンドデバイスにデプロイするのに適したものにするために、軽量モデルとハッシュ技術の使用を含む2つの改善を行った。
論文 参考訳(メタデータ) (2020-07-22T14:30:50Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - Privacy-Preserving Boosting in the Local Setting [17.375582978294105]
機械学習では、複数のベース学習者と優れた学習者を組み合わせるように設計された最も一般的な方法の1つがブースティングである。
ビッグデータ時代において、個人や団体によって保持されるデータ(個人画像、閲覧履歴、国勢調査情報など)は、より機密性の高い情報を含む傾向にある。
ローカル微分プライバシーは、データ所有者に強力な保証を提供する効果的なプライバシー保護アプローチとして提案されている。
論文 参考訳(メタデータ) (2020-02-06T04:48:51Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。