論文の概要: NoPeek: Information leakage reduction to share activations in
distributed deep learning
- arxiv url: http://arxiv.org/abs/2008.09161v1
- Date: Thu, 20 Aug 2020 19:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 03:13:43.712199
- Title: NoPeek: Information leakage reduction to share activations in
distributed deep learning
- Title(参考訳): NoPeek: 分散ディープラーニングにおける情報漏洩削減と共有アクティベーション
- Authors: Praneeth Vepakomma, Abhishek Singh, Otkrist Gupta, Ramesh Raskar
- Abstract要約: リーク(Leakage、入力と中間表現間の距離相関を用いて測定)は、中間表現からの生データの可逆性に関連するリスクである。
本稿では、生データと中間表現間の距離相関を最小化することで、クライアント間通信における機密データパターンの漏洩を低減する方法を示す。
- 参考スコア(独自算出の注目度): 14.09127623892218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For distributed machine learning with sensitive data, we demonstrate how
minimizing distance correlation between raw data and intermediary
representations reduces leakage of sensitive raw data patterns across client
communications while maintaining model accuracy. Leakage (measured using
distance correlation between input and intermediate representations) is the
risk associated with the invertibility of raw data from intermediary
representations. This can prevent client entities that hold sensitive data from
using distributed deep learning services. We demonstrate that our method is
resilient to such reconstruction attacks and is based on reduction of distance
correlation between raw data and learned representations during training and
inference with image datasets. We prevent such reconstruction of raw data while
maintaining information required to sustain good classification accuracies.
- Abstract(参考訳): センシティブなデータを持つ分散機械学習では、生データと中間表現間の距離相関を最小化することで、モデルの精度を維持しながら、クライアント通信間でのセンシティブな生データパターンの漏洩を低減できることを示す。
リーク(入力と中間表現間の距離相関を用いた測定)は、中間表現からの生データの可逆性に関連するリスクである。
これにより、機密データを保持するクライアントエンティティが分散ディープラーニングサービスを使用するのを防ぐことができる。
提案手法は,このような再構成攻撃に対する耐性を示し,画像データセットを用いたトレーニングおよび推論において,生データと学習表現との距離相関の低減に基づく。
良好な分類精度を維持するために必要な情報を維持しつつ、生データの再構築を防止する。
関連論文リスト
- Geometry-Aware Instrumental Variable Regression [56.16884466478886]
本稿では,データ導出情報によるデータ多様体の幾何を考慮した移動型IV推定器を提案する。
本手法のプラグイン・アンド・プレイ実装は,標準設定で関連する推定器と同等に動作する。
論文 参考訳(メタデータ) (2024-05-19T17:49:33Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Conditional Mutual Information for Disentangled Representations in
Reinforcement Learning [13.450394764597663]
強化学習環境は、特徴間の素早い相関でトレーニングデータを生成することができる。
アンタングル表現はロバスト性を改善することができるが、特徴間の相互情報を最小化する既存のアンタングル化技術は独立した特徴を必要とする。
相関特徴を持つ高次元観測の非交叉表現を学習するRLアルゴリズムの補助的タスクを提案する。
論文 参考訳(メタデータ) (2023-05-23T14:56:19Z) - Disentanglement and Generalization Under Correlation Shifts [22.499106910581958]
実世界のデータでは、変動要因間の相関が一般的である。
機械学習アルゴリズムは、ノイズの多いデータに対する予測性能を高めることができるため、そのような相関を利用する利点がある。
潜在部分空間の様々な要因を捉える表現を学習することを目的としている。
論文 参考訳(メタデータ) (2021-12-29T18:55:17Z) - RelaySum for Decentralized Deep Learning on Heterogeneous Data [71.36228931225362]
分散機械学習では、労働者はローカルデータのモデル更新を計算する。
労働者は中心的な調整なしに隣人とのみ通信するため、これらの更新はネットワーク上で徐々に伝播する。
このパラダイムは、全接続のないネットワーク上での分散トレーニングを可能にし、データのプライバシ保護と、データセンタでの分散トレーニングの通信コストの削減を支援する。
論文 参考訳(メタデータ) (2021-10-08T14:55:32Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Auto-weighted Robust Federated Learning with Corrupted Data Sources [7.475348174281237]
フェデレーション学習はコミュニケーション効率とプライバシ保護のトレーニングプロセスを提供する。
平均損失関数をナイーブに最小化する標準的なフェデレーション学習技術は、データの破損に弱い。
破損したデータソースに対して堅牢性を提供するために、自動重み付けロバストフェデレーテッドラーニング(arfl)を提案します。
論文 参考訳(メタデータ) (2021-01-14T21:54:55Z) - MixCon: Adjusting the Separability of Data Representations for Harder
Data Recovery [39.66478626913495]
我々は、データユーティリティと脆弱性間のトレードオフを制御し、攻撃を反転させる手段として、隠れたデータ表現の分離性を調整する客観的関数を設計する。
本手法は,ニューラルネットワークトレーニングにおけるデータ分離可能性の理論的洞察と,モデル反転の硬さに関する結果に動機付けられている。
論文 参考訳(メタデータ) (2020-10-22T06:02:44Z) - Evaluating representations by the complexity of learning low-loss
predictors [55.94170724668857]
下流タスクの解決に使用されるデータの表現を評価することの問題点を考察する。
本稿では,関心のあるタスクにおける低損失を実現する表現の上に,予測器を学習する複雑性によって表現の質を測定することを提案する。
論文 参考訳(メタデータ) (2020-09-15T22:06:58Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。