論文の概要: Privacy-Preserving Feature Selection with Secure Multiparty Computation
- arxiv url: http://arxiv.org/abs/2102.03517v1
- Date: Sat, 6 Feb 2021 05:33:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:23:17.655391
- Title: Privacy-Preserving Feature Selection with Secure Multiparty Computation
- Title(参考訳): セキュアなマルチパーティ計算によるプライバシー保護機能選択
- Authors: Xiling Li and Rafael Dowsley and Martine De Cock
- Abstract要約: フィルタ法に基づくプライベートな特徴選択のための最初のMPCベースのプロトコルを提案する。
本稿では,提案プロトコルによるセキュアな特徴選択により,様々な実世界のデータセットの分類器の精度が向上することを示す。
- 参考スコア(独自算出の注目度): 9.478262337000066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing work on privacy-preserving machine learning with Secure Multiparty
Computation (MPC) is almost exclusively focused on model training and on
inference with trained models, thereby overlooking the important data
pre-processing stage. In this work, we propose the first MPC based protocol for
private feature selection based on the filter method, which is independent of
model training, and can be used in combination with any MPC protocol to rank
features. We propose an efficient feature scoring protocol based on Gini
impurity to this end. To demonstrate the feasibility of our approach for
practical data science, we perform experiments with the proposed MPC protocols
for feature selection in a commonly used machine-learning-as-a-service
configuration where computations are outsourced to multiple servers, with
semi-honest and with malicious adversaries. Regarding effectiveness, we show
that secure feature selection with the proposed protocols improves the accuracy
of classifiers on a variety of real-world data sets, without leaking
information about the feature values or even which features were selected.
Regarding efficiency, we document runtimes ranging from several seconds to an
hour for our protocols to finish, depending on the size of the data set and the
security settings.
- Abstract(参考訳): Secure Multiparty Computation (MPC)による既存のプライバシ保護機械学習の研究は、モデルトレーニングとトレーニングされたモデルによる推論に集中しており、重要なデータ前処理ステージを見下ろしている。
本研究では,モデル学習とは無関係なフィルタ法を用いて,MPCプロトコルと組み合わせて特徴のランク付けを行うことのできる,プライベートな特徴選択のための最初のMPCベースのプロトコルを提案する。
本稿では,Gini不純物に基づく効率的な特徴スコアリングプロトコルを提案する。
実用データサイエンスにおける我々のアプローチの実現可能性を示すために,提案したMPCプロトコルを用いて,複数のサーバに計算をアウトソースする機械学習・アズ・ア・サービス構成による特徴選択実験を行った。
有効性については,提案プロトコルによるセキュアな特徴選択は,特徴値や選択された特徴に関する情報を漏らさずに,様々な実世界のデータセット上の分類器の精度を向上することを示す。
効率性については、データセットのサイズとセキュリティ設定に応じて、プロトコルが終了するまで数秒から1時間までのランタイムを文書化します。
関連論文リスト
- The Communication-Friendly Privacy-Preserving Machine Learning against Malicious Adversaries [14.232901861974819]
プライバシー保護機械学習(PPML)は、機密情報を保護しながらセキュアなデータ分析を可能にする革新的なアプローチである。
セキュアな線形関数評価のための効率的なプロトコルを導入する。
我々は、このプロトコルを拡張して、線形層と非線形層を扱い、幅広い機械学習モデルとの互換性を確保する。
論文 参考訳(メタデータ) (2024-11-14T08:55:14Z) - Hardware Aware Ensemble Selection for Balancing Predictive Accuracy and Cost [0.6486052012623046]
ハードウェア対応のアンサンブル選択手法を導入し,推論時間をポストホックアンサンブルに統合する。
提案手法は,既存のアンサンブル選択フレームワークと品質多様性最適化を利用して,その予測精度とハードウェア効率について,アンサンブル候補の評価を行う。
83の分類データセットを用いて評価したところ,本手法は競争精度を保ち,アンサンブルの操作効率を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-08-05T07:30:18Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - Provable Mutual Benefits from Federated Learning in Privacy-Sensitive Domains [3.3748750222488657]
クロスサイロフェデレーション学習により、データ所有者は、互いにプライベートデータセットから利益を得て、正確な機械学習モデルをトレーニングできる。
プライバシーに敏感なドメインへのクライアントの参加を促進するために、FLプロトコルはプライバシー保証とエンドモデル精度の微妙なバランスをとる必要がある。
我々は、サーバがFLプロトコルを設計できる時期と方法について、すべての参加者にとって有益であるかどうかを調査する。
論文 参考訳(メタデータ) (2024-03-11T12:43:44Z) - Feature Selection via Maximizing Distances between Class Conditional
Distributions [9.596923373834093]
積分確率測定(IPMs)により測定されたクラス条件分布間の距離に基づく新しい特徴選択フレームワークを提案する。
本フレームワークは, 教師付き分類のための分布感覚における特徴の識別的情報を直接探索する。
実験により,本フレームワークは,摂動に対する分類精度とロバスト性の観点から,最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-01-15T06:10:10Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Tuning Pre-trained Model via Moment Probing [62.445281364055795]
本稿では,LP の可能性を探るため,新しい Moment Probing (MP) 法を提案する。
MPは、最終特徴の平均に基づいて線形分類ヘッドを実行する。
当社のMPはLPを著しく上回り、トレーニングコストの低い相手と競争しています。
論文 参考訳(メタデータ) (2023-07-21T04:15:02Z) - Byzantine-Robust Federated Learning with Optimal Statistical Rates and
Privacy Guarantees [123.0401978870009]
ほぼ最適な統計率を持つビザンチン・ロバスト・フェデレーション学習プロトコルを提案する。
競合プロトコルに対してベンチマークを行い、提案プロトコルの実証的な優位性を示す。
我々のバケットプロトコルは、プライバシー保証手順と自然に組み合わせて、半正直なサーバに対するセキュリティを導入することができる。
論文 参考訳(メタデータ) (2022-05-24T04:03:07Z) - Training Differentially Private Models with Secure Multiparty
Computation [12.628792164922864]
複数のデータ所有者に起源を持つデータから機械学習モデルを学習する問題に対処する。
差分プライバシー(DP)に基づく既存のソリューションは、精度の低下を犠牲にしてこれを達成している。
提案手法はモデルトレーニングのためのMPCプロトコルと,学習したモデル係数をLaplaceノイズで摂動するMPCプロトコルに依存している。
論文 参考訳(メタデータ) (2022-02-05T20:00:37Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。