論文の概要: From Private to Public: Benchmarking GANs in the Context of Private Time
Series Classification
- arxiv url: http://arxiv.org/abs/2303.15916v1
- Date: Tue, 28 Mar 2023 12:10:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 15:28:36.460594
- Title: From Private to Public: Benchmarking GANs in the Context of Private Time
Series Classification
- Title(参考訳): プライベートからパブリックへ:プライベート時系列分類におけるGANのベンチマーク
- Authors: Dominique Mercier, Andreas Dengel, Sheraz Ahmed
- Abstract要約: GANをベースとした2つの顕著なアーキテクチャが、プライベート時系列分類の文脈で評価された。
実験によると、特にGSWGANは、さまざまな公開データセットでよく機能している。
生成されたデータセットの分析により、時系列生成の文脈におけるGSWGANの優位性をさらに検証する。
- 参考スコア(独自算出の注目度): 5.557646286040063
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning has proven to be successful in various domains and for
different tasks. However, when it comes to private data several restrictions
are making it difficult to use deep learning approaches in these application
fields. Recent approaches try to generate data privately instead of applying a
privacy-preserving mechanism directly, on top of the classifier. The solution
is to create public data from private data in a manner that preserves the
privacy of the data. In this work, two very prominent GAN-based architectures
were evaluated in the context of private time series classification. In
contrast to previous work, mostly limited to the image domain, the scope of
this benchmark was the time series domain. The experiments show that especially
GSWGAN performs well across a variety of public datasets outperforming the
competitor DPWGAN. An analysis of the generated datasets further validates the
superiority of GSWGAN in the context of time series generation.
- Abstract(参考訳): ディープラーニングはさまざまなドメインやさまざまなタスクで成功している。
しかし、プライベートデータに関しては、いくつかの制限があるため、これらのアプリケーションフィールドでディープラーニングアプローチを使用するのは難しい。
最近のアプローチでは、分類器の上にプライバシー保護機構を直接適用するのではなく、プライベートにデータを生成する。
解決策は、データのプライバシを保存する方法で、プライベートデータから公開データを作成することである。
本研究では,プライベート時系列分類の文脈において,非常に顕著な2つのGANアーキテクチャを評価した。
主にイメージドメインに限定された以前の作業とは対照的に、このベンチマークの範囲は時系列ドメインだった。
実験によると、特にGSWGANは、競合するDPWGANよりも優れた、さまざまな公開データセットでよく機能している。
生成されたデータセットの分析により、時系列生成の文脈におけるGSWGANの優位性をさらに検証する。
関連論文リスト
- Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - DPGOMI: Differentially Private Data Publishing with Gaussian Optimized
Model Inversion [8.204115285718437]
本稿では,ガウス最適化モデルインバージョン(DPGOMI)を用いた微分プライベートデータパブリッシングを提案し,この問題に対処する。
提案手法では, パブリックジェネレータを用いてプライベートデータを潜時空間にマッピングし, コンバージェンス特性が向上した低次元DP-GANを用いる。
以上の結果から,DPGOMIは,インセプションスコア,Freche't Inception Distance,分類性能において,標準DP-GAN法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-06T18:46:22Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Gradients Look Alike: Sensitivity is Often Overestimated in DP-SGD [44.11069254181353]
DP-SGDのリークは、一般的なベンチマークでトレーニングした場合、多くのデータポイントのプライバシが大幅に低下することを示す。
これは、敵がトレーニングデータセットを十分にコントロールしていない場合、プライバシ攻撃が多くのデータポイントに対して必ず失敗することを意味する。
論文 参考訳(メタデータ) (2023-07-01T11:51:56Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Differentially Private Graph Classification with GNNs [5.830410490229634]
グラフネットワーク(GNN)は多くの機械学習アプリケーションの最先端モデルとして確立されている。
グラフにおける機械学習の重要な応用の1つであるグラフレベル分類の差分プライバシーを導入する。
各種の合成および公開データセットについて結果を示し、異なるGNNアーキテクチャの影響を評価する。
論文 参考訳(メタデータ) (2022-02-05T15:16:40Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - imdpGAN: Generating Private and Specific Data with Generative
Adversarial Networks [19.377726080729293]
imdpGANは、プライバシー保護と潜伏表現を同時に達成するエンドツーエンドフレームワークである。
我々は、ImdpGANが個々のデータポイントのプライバシを保持し、生成したサンプルの特異性を制御するために潜時符号を学習していることを示す。
論文 参考訳(メタデータ) (2020-09-29T08:03:32Z) - GS-WGAN: A Gradient-Sanitized Approach for Learning Differentially
Private Generators [74.16405337436213]
我々は、GS-WGAN(Gradient-sanitized Wasserstein Generative Adrial Networks)を提案する。
GS-WGANは、厳格なプライバシー保証を備えた機密データの衛生的な形式での公開を可能にする。
このアプローチは、複数のメトリクスにわたる最先端のアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2020-06-15T10:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。