論文の概要: Privacy-Preserving Collaborative Learning through Feature Extraction
- arxiv url: http://arxiv.org/abs/2212.06322v1
- Date: Tue, 13 Dec 2022 02:04:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 15:31:46.535802
- Title: Privacy-Preserving Collaborative Learning through Feature Extraction
- Title(参考訳): 特徴抽出によるプライバシー保護協調学習
- Authors: Alireza Sarmadi, Hao Fu, Prashanth Krishnamurthy, Siddharth Garg, and
Farshad Khorrami
- Abstract要約: 我々は、複数のエンティティが協力して、データのプライバシを保持しながら機械学習モデルを構築するフレームワークを提案する。
このアプローチは、エンティティ間の協調のために、データを機能空間に変換する共有/パーエンティリティ特徴抽出器からのフィーチャ埋め込みを利用する。
- 参考スコア(独自算出の注目度): 15.768991453855072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a framework in which multiple entities collaborate to build a
machine learning model while preserving privacy of their data. The approach
utilizes feature embeddings from shared/per-entity feature extractors
transforming data into a feature space for cooperation between entities. We
propose two specific methods and compare them with a baseline method. In Shared
Feature Extractor (SFE) Learning, the entities use a shared feature extractor
to compute feature embeddings of samples. In Locally Trained Feature Extractor
(LTFE) Learning, each entity uses a separate feature extractor and models are
trained using concatenated features from all entities. As a baseline, in
Cooperatively Trained Feature Extractor (CTFE) Learning, the entities train
models by sharing raw data. Secure multi-party algorithms are utilized to train
models without revealing data or features in plain text. We investigate the
trade-offs among SFE, LTFE, and CTFE in regard to performance, privacy leakage
(using an off-the-shelf membership inference attack), and computational cost.
LTFE provides the most privacy, followed by SFE, and then CTFE. Computational
cost is lowest for SFE and the relative speed of CTFE and LTFE depends on
network architecture. CTFE and LTFE provide the best accuracy. We use MNIST, a
synthetic dataset, and a credit card fraud detection dataset for evaluations.
- Abstract(参考訳): 本稿では,複数のエンティティが協調して,データのプライバシを保ちながら機械学習モデルを構築するフレームワークを提案する。
このアプローチは、エンティティ間の協調のために、データの共有/パーエンタリティ特徴抽出器からのフィーチャ埋め込みを利用する。
そこで本研究では,2つの方法を提案し,ベースライン法と比較する。
共有特徴エクストラクタ(SFE)学習では、エンティティは共有特徴抽出器を使用してサンプルの特徴埋め込みを計算する。
ローカルトレーニングされた特徴エクストラクタ(LTFE)学習では、各エンティティは別個の特徴抽出器を使用し、モデルがすべてのエンティティから連結された特徴を使用して訓練される。
ベースラインとして、CTFE学習では、エンティティは生データを共有してモデルを訓練する。
セキュアなマルチパーティアルゴリズムは、プレーンテキストでデータや特徴を明かすことなく、モデルをトレーニングするために使用される。
SFE,LTFE,CTFE間のトレードオフについて,性能,プライバシリーク(オフザシェルメンバシップ推論攻撃を用いた),計算コストについて検討した。
LTFEが最もプライバシを提供し、次にSFE、次にCTFEを提供する。
SFEは計算コストが低く、CTFEとLTFEの相対速度はネットワークアーキテクチャに依存する。
CTFEとLTFEが最も正確である。
我々は,MNIST,合成データセット,クレジットカード不正検出データセットを用いて評価を行う。
関連論文リスト
- Personalized Federated Learning for Cross-view Geo-localization [49.40531019551957]
本稿では,フェデレート・ラーニング (FL) とクロスビュー・イメージ・ジオローカライゼーション (CVGL) 技術を組み合わせた方法論を提案する。
提案手法では, クライアントが粗い特徴抽出器のみを共有しながら, 局所環境に特有のきめ細かな特徴を保持する, 粗い特徴抽出器を実装している。
その結果,フェデレートCVGL法は,データプライバシを維持しつつ,集中的なトレーニングに近い性能を実現することができた。
論文 参考訳(メタデータ) (2024-11-07T13:25:52Z) - Loop Improvement: An Efficient Approach for Extracting Shared Features from Heterogeneous Data without Central Server [16.249442761713322]
LI(Loop Improvement)は、この分離と特徴抽出を、参加者間の中央サーバやデータ交換を必要とせずに強化する新しい手法である。
パーソナライズされたフェデレーション学習環境では、LIは様々なシナリオで高度なFedALAアルゴリズムよりも精度が高い。
LIの適応性はマルチタスク学習にまで拡張され、タスク間で共通の機能の抽出が合理化され、同時にトレーニングする必要がなくなる。
論文 参考訳(メタデータ) (2024-03-21T12:59:24Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - pFedES: Model Heterogeneous Personalized Federated Learning with Feature
Extractor Sharing [19.403843478569303]
特徴抽出器の共有に基づくモデル・ヘテロジニアス・パーソナライズされたフェデレーション学習手法を提案する。
これは、各クライアントの異種局所モデルに小さな同種特徴抽出器を組み込む。
テスト精度は1.61%向上し、通信コストと計算コストをそれぞれ99.6%と82.9%削減した。
論文 参考訳(メタデータ) (2023-11-12T15:43:39Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Shared Space Transfer Learning for analyzing multi-site fMRI data [83.41324371491774]
マルチボクセルパターン解析(MVPA)は、タスクベース機能磁気共鳴画像(fMRI)データから予測モデルを学習する。
MVPAはよく設計された機能セットと十分なサンプルサイズで機能する。
ほとんどのfMRIデータセットはノイズが多く、高次元で、収集するのに高価で、サンプルサイズも小さい。
本稿では,新しい伝達学習手法として共有空間移動学習(SSTL)を提案する。
論文 参考訳(メタデータ) (2020-10-24T08:50:26Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z) - Mining Implicit Entity Preference from User-Item Interaction Data for
Knowledge Graph Completion via Adversarial Learning [82.46332224556257]
本稿では,知識グラフ補完タスクにおけるユーザインタラクションデータを活用することで,新たな逆学習手法を提案する。
我々のジェネレータはユーザインタラクションデータから分離されており、識別器の性能を向上させるのに役立ちます。
利用者の暗黙の実体的嗜好を発見するために,グラフニューラルネットワークに基づく精巧な協調学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-03-28T05:47:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。