論文の概要: A compressive multi-kernel method for privacy-preserving machine
learning
- arxiv url: http://arxiv.org/abs/2106.10671v1
- Date: Sun, 20 Jun 2021 10:27:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:41:56.579197
- Title: A compressive multi-kernel method for privacy-preserving machine
learning
- Title(参考訳): プライバシー保護機械学習のための圧縮マルチカーネル法
- Authors: Thee Chanyaswad, J. Morris Chang, S.Y. Kung
- Abstract要約: この研究は、以前は非干渉的な2つのコンプレッシブプライバシとマルチカーネル方式に基づいている。
提案手法は,MHEALTHとHARの2つの移動センシングデータセットを用いて評価する。
- 参考スコア(独自算出の注目度): 5.908471365011942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the analytic tools become more powerful, and more data are generated on a
daily basis, the issue of data privacy arises. This leads to the study of the
design of privacy-preserving machine learning algorithms. Given two objectives,
namely, utility maximization and privacy-loss minimization, this work is based
on two previously non-intersecting regimes -- Compressive Privacy and
multi-kernel method. Compressive Privacy is a privacy framework that employs
utility-preserving lossy-encoding scheme to protect the privacy of the data,
while multi-kernel method is a kernel based machine learning regime that
explores the idea of using multiple kernels for building better predictors. The
compressive multi-kernel method proposed consists of two stages -- the
compression stage and the multi-kernel stage. The compression stage follows the
Compressive Privacy paradigm to provide the desired privacy protection. Each
kernel matrix is compressed with a lossy projection matrix derived from the
Discriminant Component Analysis (DCA). The multi-kernel stage uses the
signal-to-noise ratio (SNR) score of each kernel to non-uniformly combine
multiple compressive kernels. The proposed method is evaluated on two
mobile-sensing datasets -- MHEALTH and HAR -- where activity recognition is
defined as utility and person identification is defined as privacy. The results
show that the compression regime is successful in privacy preservation as the
privacy classification accuracies are almost at the random-guess level in all
experiments. On the other hand, the novel SNR-based multi-kernel shows utility
classification accuracy improvement upon the state-of-the-art in both datasets.
These results indicate a promising direction for research in privacy-preserving
machine learning.
- Abstract(参考訳): 分析ツールがより強力になり、より多くのデータが日々生成されるようになると、データプライバシの問題が発生する。
これにより、プライバシ保存型機械学習アルゴリズムの設計が研究される。
ユーティリティの最大化とプライバシロスの最小化という2つの目標を前提として,この作業は,これまで非干渉的であった圧縮プライバシとマルチカーネルメソッドに基づくものだ。
圧縮プライバシ(compressive privacy)は、データプライバシを保護するためにユーティリティ保存のロスエンコーディング(lossy-encoding)スキームを使用するプライバシフレームワークである。一方、マルチカーネル(multi-kernel)法は、より優れた予測器を構築するために複数のカーネルを使用するアイデアを探求するカーネルベースのマシンラーニングレジームである。
圧縮マルチカーネル法は圧縮ステージとマルチカーネルステージの2段階からなる。
圧縮段階は、望ましいプライバシ保護を提供するための圧縮プライバシパラダイムに従う。
各カーネルマトリクスは、識別成分分析(dca)から派生した損失の投影マトリクスで圧縮される。
マルチカーネルステージでは、各カーネルの信号対雑音比(SNR)スコアを使用して、複数の圧縮カーネルを均一に結合する。
提案手法は,MHEALTHとHARの2つのモバイルセンシングデータセットで評価され,アクティビティ認識はユーティリティとして,個人識別はプライバシとして定義される。
その結果,すべての実験において,プライバシ分類の精度がほぼ無作為レベルであるため,圧縮方式はプライバシ保護に成功していることがわかった。
一方,新しいsnrベースのマルチカーネルは,両データセットの最先端における実用的分類精度の向上を示す。
これらの結果は、プライバシー保護機械学習の研究における有望な方向性を示している。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Scalable Differential Privacy Mechanisms for Real-Time Machine Learning Applications [0.0]
大規模言語モデル(LLM)は、ユーザのプライバシ保護が最重要であるリアルタイム機械学習アプリケーションに、ますます統合されている。
従来の差分プライバシーメカニズムは、プライバシーと精度のバランスをとるのに苦労することが多い。
当社では,堅牢なプライバシ保証とモデルパフォーマンスの向上を重視した,リアルタイム機械学習に適したフレームワークであるScalable Differential Privacy(SDP)を紹介した。
論文 参考訳(メタデータ) (2024-09-16T20:52:04Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Preserving Node-level Privacy in Graph Neural Networks [8.823710998526705]
グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
論文 参考訳(メタデータ) (2023-11-12T16:21:29Z) - Bounded and Unbiased Composite Differential Privacy [25.427802467876248]
差分プライバシ(DP)の目的は、隣接する2つのデータベース間で区別できない出力分布を生成することにより、プライバシを保護することである。
既存のソリューションでは、後処理やトランケーション技術を使ってこの問題に対処しようとしている。
本稿では,合成確率密度関数を用いて有界および非偏りの出力を生成する新しい微分プライベート機構を提案する。
論文 参考訳(メタデータ) (2023-11-04T04:43:47Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z) - A One-Pass Private Sketch for Most Machine Learning Tasks [48.17461258268463]
差別化プライバシ(DP)は、正式な証明可能な保証を通じて、プライバシとユーティリティのトレードオフを説明する魅力的なプライバシ定義である。
本稿では,回帰,分類,密度推定など,多数の機械学習タスクをサポートするプライベートスケッチを提案する。
このスケッチは,局所性に敏感なハッシュをインデックス化して,効率的なワンパスアルゴリズムで構築したランダムな一致テーブルで構成されている。
論文 参考訳(メタデータ) (2020-06-16T17:47:48Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。