論文の概要: Sharing Models or Coresets: A Study based on Membership Inference Attack
- arxiv url: http://arxiv.org/abs/2007.02977v1
- Date: Mon, 6 Jul 2020 18:06:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 01:41:27.913719
- Title: Sharing Models or Coresets: A Study based on Membership Inference Attack
- Title(参考訳): 共有モデルまたはコアセット:メンバーシップ推論攻撃に基づく研究
- Authors: Hanlin Lu, Changchang Liu, Ting He, Shiqiang Wang and Kevin S. Chan
- Abstract要約: 分散機械学習は、すべてのデータを集中した場所に集めることなく、分散データに基づいてグローバルモデルをトレーニングすることを目的としている。
ローカルモデル(フェデレーション学習)の収集と集約、代表データ要約(コアセット)の収集とトレーニングの2つのアプローチが提案されている。
本実験は,各アプローチの精度・プライバシ・コストのトレードオフを定量化し,モデルトレーニングプロセスの設計の指針となる非自明な比較を明らかにする。
- 参考スコア(独自算出の注目度): 17.562474629669513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed machine learning generally aims at training a global model based
on distributed data without collecting all the data to a centralized location,
where two different approaches have been proposed: collecting and aggregating
local models (federated learning) and collecting and training over
representative data summaries (coreset). While each approach preserves data
privacy to some extent thanks to not sharing the raw data, the exact extent of
protection is unclear under sophisticated attacks that try to infer the raw
data from the shared information. We present the first comparison between the
two approaches in terms of target model accuracy, communication cost, and data
privacy, where the last is measured by the accuracy of a state-of-the-art
attack strategy called the membership inference attack. Our experiments
quantify the accuracy-privacy-cost tradeoff of each approach, and reveal a
nontrivial comparison that can be used to guide the design of model training
processes.
- Abstract(参考訳): 分散機械学習は一般的に、すべてのデータを集中した場所に集めることなく、分散データに基づいたグローバルモデルをトレーニングすることを目的としており、そこでは、ローカルモデル(フェデレート学習)の収集と集約、代表データ要約(coreset)による収集とトレーニングという2つのアプローチが提案されている。
各アプローチは、生データを共有しないため、ある程度データのプライバシを保持するが、共有情報から生データを推測しようとする高度な攻撃の下では、保護の正確な範囲は明確ではない。
対象モデル精度,通信コスト,データプライバシの両手法の初回比較を行い,その最終結果は,メンバシップ推論攻撃と呼ばれる最先端攻撃戦略の精度で測定する。
実験では,各アプローチの精度と費用のトレードオフを定量化し,モデルトレーニングプロセスの設計を導くための非自明な比較を行った。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Multiply Robust Estimation for Local Distribution Shifts with Multiple Domains [9.429772474335122]
我々は、全人口の複数のセグメントにまたがってデータ分布が変化するシナリオに焦点を当てる。
そこで本研究では,各セグメントのモデル性能を改善するために,二段階多重ロバスト推定法を提案する。
本手法は,市販の機械学習モデルを用いて実装されるように設計されている。
論文 参考訳(メタデータ) (2024-02-21T22:01:10Z) - Universal Semi-supervised Model Adaptation via Collaborative Consistency
Training [92.52892510093037]
我々は、Universal Semi-supervised Model Adaptation (USMA)と呼ばれる現実的で挑戦的なドメイン適応問題を導入する。
本稿では,2つのモデル間の予測整合性を規則化する協調的整合性トレーニングフレームワークを提案する。
実験により,いくつかのベンチマークデータセットにおける本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-07T08:19:40Z) - Generalizing Differentially Private Decentralized Deep Learning with Multi-Agent Consensus [11.414398732656839]
本稿では,分散ディープラーニングに差分プライバシーを組み込んだフレームワークを提案する。
本稿では,このフレームワークから派生したアルゴリズムの収束保証を証明し,その実用性を示す。
論文 参考訳(メタデータ) (2023-06-24T07:46:00Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Federating Recommendations Using Differentially Private Prototypes [16.29544153550663]
生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-01T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。