論文の概要: Can we Generalize and Distribute Private Representation Learning?
- arxiv url: http://arxiv.org/abs/2010.01792v5
- Date: Sun, 30 Jan 2022 21:21:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 19:53:28.725705
- Title: Can we Generalize and Distribute Private Representation Learning?
- Title(参考訳): プライベート表現学習の一般化と配布は可能か?
- Authors: Sheikh Shams Azam, Taejin Kim, Seyyedali Hosseinalipour, Carlee
Joe-Wong, Saurabh Bagchi, Christopher Brinton
- Abstract要約: 本研究では,私的かつ有意義な表現を学習する問題について考察する。
EIGAN(Exclusion-Inclusion Geneversarative Adversarial Network)を提案する。
D-EIGANは、ソースデータを送信せずに各ノードでの表現を学習する最初の分散PRL手法である。
- 参考スコア(独自算出の注目度): 23.345140168007486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of learning representations that are private yet
informative, i.e., provide information about intended "ally" targets while
hiding sensitive "adversary" attributes. We propose Exclusion-Inclusion
Generative Adversarial Network (EIGAN), a generalized private representation
learning (PRL) architecture that accounts for multiple ally and adversary
attributes unlike existing PRL solutions. While centrally-aggregated dataset is
a prerequisite for most PRL techniques, data in real-world is often siloed
across multiple distributed nodes unwilling to share the raw data because of
privacy concerns. We address this practical constraint by developing D-EIGAN,
the first distributed PRL method that learns representations at each node
without transmitting the source data. We theoretically analyze the behavior of
adversaries under the optimal EIGAN and D-EIGAN encoders and the impact of
dependencies among ally and adversary tasks on the optimization objective. Our
experiments on various datasets demonstrate the advantages of EIGAN in terms of
performance, robustness, and scalability. In particular, EIGAN outperforms the
previous state-of-the-art by a significant accuracy margin (47% improvement),
and D-EIGAN's performance is consistently on par with EIGAN under different
network settings.
- Abstract(参考訳): 本研究では,機密性の高い「敵」属性を隠蔽しながら,意図的な「同盟」ターゲットに関する情報を提供する,プライベートだが情報的な表現を学習する問題について検討する。
Inclusion-Inclusion Generative Adversarial Network (EIGAN) は,既存のPRLソリューションと異なり,複数のアレーおよび逆の属性を考慮に入れた汎用プライベート表現学習(PRL)アーキテクチャである。
集中集約データセットは、ほとんどのPRLテクニックにとって必須条件であるが、現実のデータは、プライバシの懸念から生データを共有したくない複数の分散ノードにサイロ化されることが多い。
D-EIGANは、ソースデータを送信せずに各ノードでの表現を学習する最初の分散PRL手法である。
我々は,最適なEIGANエンコーダとD-EIGANエンコーダの下での敵の挙動と,その最適化目標に対する味方・敵タスク間の依存関係の影響を理論的に分析する。
各種データセットに関する実験は、パフォーマンス、堅牢性、スケーラビリティの観点から、EIGANの利点を実証している。
特に、D-EIGANは従来の最先端技術よりも高い精度(47%の改善)であり、D-EIGANの性能は、異なるネットワーク設定下でのEIGANと一貫して同等である。
関連論文リスト
- Efficient Distribution Matching of Representations via Noise-Injected Deep InfoMax [73.03684002513218]
我々はDeep InfoMax(DIM)を拡張し、学習した表現を選択された事前分布に自動マッチングできるようにする。
このような修正により、一様かつ通常に分散した表現を学習できることを示す。
その結果,下流作業における性能とDMの品質の中間的なトレードオフが示唆された。
論文 参考訳(メタデータ) (2024-10-09T15:40:04Z) - Unbiased Faster R-CNN for Single-source Domain Generalized Object Detection [35.71100602593928]
一般化可能な特徴学習のためのUnbiased Faster R-CNN (UFR)を提案する。
具体的には、因果的観点からの物体検出を定式化し、データバイアスとタスクの特徴バイアスを分析する構造因果モデル(SCM)を構築する。
5つの場面における実験結果から,本手法の顕著な一般化能力が示され,ナイトクリアシーンでは3.9%のmAPが向上した。
論文 参考訳(メタデータ) (2024-05-24T05:34:23Z) - Cross-Domain Causal Preference Learning for Out-of-Distribution Recommendation [0.8315707564931466]
現在の推奨システムは、トレーニングとテストデータセットが同じ分布を持つという仮定に依存している。
本研究では,CDCOR(Out-of-Distribution Recommendation)のためのクロスドメイン因果選好学習モデルを提案する。
論文 参考訳(メタデータ) (2024-04-23T09:21:15Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - FedSIS: Federated Split Learning with Intermediate Representation
Sampling for Privacy-preserving Generalized Face Presentation Attack
Detection [4.1897081000881045]
目に見えないドメイン/アタックへの一般化の欠如は、FacePAD(face presentation attack detection)アルゴリズムのアキレスヒールである。
本研究では、プライバシ保護ドメインの一般化のために、中間表現サンプリング(FedSIS)を用いたFederated Split Learningと呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-08-20T11:49:12Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - CAusal and collaborative proxy-tasKs lEarning for Semi-Supervised Domain
Adaptation [20.589323508870592]
半教師付きドメイン適応(SSDA)は、ソースドメインデータとラベル付きターゲットサンプルを効果的に活用することにより、学習者を新しいドメインに適応させる。
提案手法は,SSDAデータセットの有効性と汎用性の観点から,SOTA法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-30T16:48:28Z) - Exploiting Personalized Invariance for Better Out-of-distribution
Generalization in Federated Learning [13.246981646250518]
本稿では, 個人化学習手法と比較して, 個人化非分散を探索する汎用的な二重正規化学習フレームワークを提案する。
本手法は,既存のフェデレーション学習や不変学習よりも,多様なアウト・オブ・ディストリビューションおよび非IIDデータケースにおいて優れていることを示す。
論文 参考訳(メタデータ) (2022-11-21T08:17:03Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。