論文の概要: Private data sharing between decentralized users through the privGAN
architecture
- arxiv url: http://arxiv.org/abs/2009.06764v1
- Date: Mon, 14 Sep 2020 22:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:08:22.070997
- Title: Private data sharing between decentralized users through the privGAN
architecture
- Title(参考訳): privGANアーキテクチャによる分散型ユーザ間のプライベートデータ共有
- Authors: Jean-Francois Rajotte, Raymond T Ng
- Abstract要約: 本研究では、データ所有者が実際のデータを共有することなく、データの合成版や偽版を共有する方法を提案する。
このアプローチが、さまざまなサイズのサブセットに適用されると、実際のデータセットのユーティリティよりも、所有者の利便性が向上することを示す。
- 参考スコア(独自算出の注目度): 1.3923892290096642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: More data is almost always beneficial for analysis and machine learning
tasks. In many realistic situations however, an enterprise cannot share its
data, either to keep a competitive advantage or to protect the privacy of the
data sources, the enterprise's clients for example. We propose a method for
data owners to share synthetic or fake versions of their data without sharing
the actual data, nor the parameters of models that have direct access to the
data. The method proposed is based on the privGAN architecture where local GANs
are trained on their respective data subsets with an extra penalty from a
central discriminator aiming to discriminate the origin of a given fake sample.
We demonstrate that this approach, when applied to subsets of various sizes,
leads to better utility for the owners than the utility from their real small
datasets. The only shared pieces of information are the parameter updates of
the central discriminator. The privacy is demonstrated with white-box attacks
on the most vulnerable elments of the architecture and the results are close to
random guessing. This method would apply naturally in a federated learning
setting.
- Abstract(参考訳): 分析や機械学習のタスクには、より多くのデータが常に役立ちます。
しかし、多くの現実的な状況において、企業は競争上の優位性を維持するか、例えば企業のクライアントであるデータソースのプライバシを保護するためにデータを共有できない。
本研究では,データに直接アクセスするモデルのパラメータや実際のデータを共有することなく,データ所有者がデータの合成版や偽版を共有する方法を提案する。
提案手法は,各データサブセットに局所的なGANをトレーニングするPrivGANアーキテクチャに基づいて,所定の偽検体の起源を識別することを目的とした中心判別器から余分なペナルティを課す。
このアプローチが、さまざまなサイズのサブセットに適用された場合、実際の小さなデータセットのユーティリティよりも、所有者の利便性が向上することを示す。
共有された情報は、中央判別器のパラメータ更新のみである。
プライバシはアーキテクチャの最も脆弱な要素に対するホワイトボックス攻撃で実証され、その結果はランダムな推測に近い。
この方法は、連合学習環境で自然に適用される。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Little is Enough: Improving Privacy by Sharing Labels in Federated Semi-Supervised Learning [10.972006295280636]
多くの重要なアプリケーションでは、機密データは本質的に分散しており、プライバシー上の懸念のために集中できない。
これらのアプローチのほとんどは、ローカルモデルパラメータ、パブリックデータセット上のソフト予測、あるいは両方の組み合わせを共有している。
しかし、これは依然としてプライベート情報を開示し、勾配ベースの手法でトレーニングを行う人たちにローカルモデルを制限している。
我々は、公開されていないデータセットでハードラベルのみを共有し、共有ラベルに関するコンセンサスを、クライアントが使用する擬似ラベルとして使用することを提案する。
論文 参考訳(メタデータ) (2023-10-09T13:16:10Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Differentially Private Language Models for Secure Data Sharing [19.918137395199224]
本稿では,生成言語モデルを個別に学習し,その結果を抽出する方法について述べる。
自然言語のプロンプトと新しいプロンプトミスマッチの損失を用いることで、高度に正確で流動的なテキストデータセットを作成できる。
我々は、我々の合成データセットが元のデータから情報を漏らさず、言語質が高いことを示す徹底的な実験を行う。
論文 参考訳(メタデータ) (2022-10-25T11:12:56Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Federated Learning in Non-IID Settings Aided by Differentially Private
Synthetic Data [20.757477553095637]
Federated Learning(FL)は、クライアントが機械学習モデルを協調的にトレーニングすることを可能にする、プライバシプロモーティングフレームワークである。
連合学習における大きな課題は、局所データが不均一であるときに生じる。
我々は、クライアントが変動自動エンコーダをデプロイして、遅延データ表現の微分プライベートな手段を用いて、ローカルデータセットを合成するFLアルゴリズムであるFedDPMSを提案する。
論文 参考訳(メタデータ) (2022-06-01T18:00:48Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Federating Recommendations Using Differentially Private Prototypes [16.29544153550663]
生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-01T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。