論文の概要: DPAF: Image Synthesis via Differentially Private Aggregation in Forward
Phase
- arxiv url: http://arxiv.org/abs/2304.12185v1
- Date: Thu, 20 Apr 2023 16:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 14:24:59.747597
- Title: DPAF: Image Synthesis via Differentially Private Aggregation in Forward
Phase
- Title(参考訳): DPAF:フォワードフェーズにおける差分プライベートアグリゲーションによる画像合成
- Authors: Chih-Hsun Lin, Chia-Yi Hsu, Chia-Mu Yu, Yang Cao, Chun-Ying Huang
- Abstract要約: DPAFは高次元画像合成のための効果的な微分プライベート生成モデルである。
クリッピング勾配における情報損失を低減し、アグリゲーションに対する感度を低下させる。
また、識別器の異なる部分を非対称に訓練する新しいトレーニング戦略を提案することにより、適切なバッチサイズを設定する問題にも対処する。
- 参考スコア(独自算出の注目度): 14.76128148793876
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentially private synthetic data is a promising alternative for
sensitive data release. Many differentially private generative models have been
proposed in the literature. Unfortunately, they all suffer from the low utility
of the synthetic data, particularly for images of high resolutions. Here, we
propose DPAF, an effective differentially private generative model for
high-dimensional image synthesis. Different from the prior private stochastic
gradient descent-based methods that add Gaussian noises in the backward phase
during the model training, DPAF adds a differentially private feature
aggregation in the forward phase, bringing advantages, including the reduction
of information loss in gradient clipping and low sensitivity for the
aggregation. Moreover, as an improper batch size has an adverse impact on the
utility of synthetic data, DPAF also tackles the problem of setting a proper
batch size by proposing a novel training strategy that asymmetrically trains
different parts of the discriminator. We extensively evaluate different methods
on multiple image datasets (up to images of 128x128 resolution) to demonstrate
the performance of DPAF.
- Abstract(参考訳): 異なるプライベートな合成データは、機密データリリースの有望な代替手段である。
多くの微分プライベートな生成モデルが文献で提案されている。
残念ながら、これらの画像は合成データの有用性が低く、特に高解像度の画像に苦しんでいる。
本稿では,高次元画像合成に有効な微分プライベート生成モデルdpafを提案する。
モデルトレーニング中に後方位相にガウスノイズを付加する以前の個人的確率的勾配降下法とは異なり、dpafは前方位相に微分的にプライベートな特徴集約を追加し、勾配クリッピングにおける情報損失の低減やアグリゲーションに対する感度の低下などの利点をもたらす。
さらに、不適切なバッチサイズが合成データの有用性に悪影響を及ぼすため、DPAFは識別器の異なる部分を非対称に訓練する新たなトレーニング戦略を提案し、適切なバッチサイズを設定する問題にも対処する。
DPAFの性能を示すために,複数の画像データセット(解像度128×128の画像まで)の異なる手法を広範囲に評価した。
関連論文リスト
- Differentially Private Fine-Tuning of Diffusion Models [22.454127503937883]
微分プライバシーと拡散モデル(DM)の統合は、有望だが挑戦的なフロンティアを示している。
この分野での最近の進歩は、公開データによる事前学習によって高品質な合成データを生成する可能性を強調している。
本稿では,プライバシとユーティリティのトレードオフを高めるために,トレーニング可能なパラメータの数を最小限に抑える,プライベート拡散モデルに最適化された戦略を提案する。
論文 参考訳(メタデータ) (2024-06-03T14:18:04Z) - PrivImage: Differentially Private Synthetic Image Generation using Diffusion Models with Semantic-Aware Pretraining [13.823621924706348]
差分プライバシー(DP)画像データ合成により、企業はプライバシの懸念なしに合成画像を共有し、利用することができる。
従来の手法では、生成モデルの高度な技術と、公開データセットでの事前学習を取り入れて、例外的なDP画像データを生成する。
本稿では,事前学習データを慎重に選択する新しいDP画像合成手法PRIVIMAGEを提案する。
論文 参考訳(メタデータ) (2023-10-19T14:04:53Z) - The importance of feature preprocessing for differentially private
linear optimization [38.125699428109826]
微分プライベートモデルを訓練するための最も一般的なアルゴリズムの1つは、微分プライベート勾配降下(DPSGD)である。
線形分類の単純な場合であっても、非プライベートな最適化とは異なり、(プライベートな)特徴前処理は微分プライベートな最適化に不可欠であることを示す。
我々はDPSGDFと呼ばれるアルゴリズムを提案し、DPSGDと特徴前処理を組み合わせることで、特徴の直径に比例した最適性ギャップが生じることを証明した。
論文 参考訳(メタデータ) (2023-07-19T20:20:52Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - SA-DPSGD: Differentially Private Stochastic Gradient Descent based on
Simulated Annealing [25.25065807901922]
差分勾配降下法は画像認識における差分プライバシーを持つ最も一般的な訓練法である。
既存のDPSGDスキームは性能を著しく低下させ、差分プライバシーの適用を妨げている。
本稿では, 更新品質とイテレーション数に依存する確率で, 候補更新を受理するSA-DPSGD(Simulated annealing-based differentially private gradient descent scheme)を提案する。
論文 参考訳(メタデータ) (2022-11-14T09:20:48Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。