論文の概要: Differential Privacy Image Generation with Reconstruction Loss and Noise Injection Using an Error Feedback SGD
- arxiv url: http://arxiv.org/abs/2601.15061v1
- Date: Wed, 21 Jan 2026 15:07:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.409643
- Title: Differential Privacy Image Generation with Reconstruction Loss and Noise Injection Using an Error Feedback SGD
- Title(参考訳): 誤りフィードバックSGDを用いた再構成損失とノイズ注入による差分プライバシー画像生成
- Authors: Qiwei Ma, Jun Zhang,
- Abstract要約: 匿名化などの従来のデータマスキング技術は、プライバシ保護のためのデータユーティリティを確保しながら、期待されるプライバシ保護を達成することはできない。
本稿では,EFSGD(Error Feedback Gradient Descent)法を用いた差分プライバシ生成のための新しいフレームワークを提案する。
MNIST、Fashion-MNIST、CelebAの3つのベンチマークで、ほぼすべてのメトリクスに対して最先端の結果を得る。
- 参考スコア(独自算出の注目度): 4.926236825659131
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Traditional data masking techniques such as anonymization cannot achieve the expected privacy protection while ensuring data utility for privacy-preserving machine learning. Synthetic data plays an increasingly important role as it generates a large number of training samples and prevents information leakage in real data. The existing methods suffer from the repeating trade-off processes between privacy and utility. We propose a novel framework for differential privacy generation, which employs an Error Feedback Stochastic Gradient Descent(EFSGD) method and introduces a reconstruction loss and noise injection mechanism into the training process. We generate images with higher quality and usability under the same privacy budget as the related work. Extensive experiments demonstrate the effectiveness and generalization of our proposed framework for both grayscale and RGB images. We achieve state-of-the-art results over almost all metrics on three benchmarks: MNIST, Fashion-MNIST, and CelebA.
- Abstract(参考訳): 匿名化などの従来のデータマスキング技術は、プライバシ保護のためのデータユーティリティを確保しながら、期待されるプライバシ保護を達成することはできない。
合成データは、多数のトレーニングサンプルを生成し、実際のデータの情報漏洩を防止するため、ますます重要な役割を果たす。
既存の方法は、プライバシとユーティリティのトレードオフプロセスの繰り返しに悩まされる。
本稿では,EFSGD(Error Feedback Stochastic Gradient Descent)法を用いた差分プライバシ生成のための新しいフレームワークを提案する。
関連作業と同じプライバシー予算の下で,高品質でユーザビリティの高い画像を生成する。
広汎な実験により、グレースケール画像とRGB画像の両方に対して提案したフレームワークの有効性と一般化が実証された。
MNIST、Fashion-MNIST、CelebAの3つのベンチマークで、ほぼすべてのメトリクスに対して最先端の結果を得る。
関連論文リスト
- Synthetic Data Generation and Differential Privacy using Tensor Networks' Matrix Product States (MPS) [33.032422801043495]
マトリックス製品状態(MPS)を用いたプライバシー保護のための高品質な合成データ生成手法を提案する。
我々は,MPSベースの生成モデルをCTGAN,VAE,PrivBayesといった最先端モデルと比較した。
以上の結果から,MPSは特に厳格なプライバシー制約の下で,従来のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-08-08T12:14:57Z) - Improving Noise Efficiency in Privacy-preserving Dataset Distillation [59.57846442477106]
本稿では,最適化からサンプリングを分離してコンバージェンスを向上し,信号品質を向上させる新しいフレームワークを提案する。
CIFAR-10では,従来の最先端手法の蒸留セットサイズを5分の1に減らして,クラス毎50イメージでtextbf10.0%,クラス毎50イメージで textbf8.3%向上した。
論文 参考訳(メタデータ) (2025-08-03T13:15:52Z) - Differentially Private Random Feature Model [47.35176457481132]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PATE-TripleGAN: Privacy-Preserving Image Synthesis with Gaussian Differential Privacy [4.586288671392977]
PATE-TripleGANというプライバシ保護トレーニングフレームワークを提案する。
ラベル付きデータへの依存を減らすために、ラベル付きデータの事前分類を行う分類器が組み込まれている。
PATE-TripleGANは、トレーニングデータのプライバシを確保しながら、高品質なラベル付きイメージデータセットを生成することができる。
論文 参考訳(メタデータ) (2024-04-19T09:22:20Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Differentially-Private Data Synthetisation for Efficient Re-Identification Risk Control [3.8811062755861956]
$epsilon$-PrivateSMOTEは、再識別とリンケージ攻撃を防ぐためのテクニックである。
提案手法は,ノイズに起因した逆数による合成データ生成と,高リスクケースを難読化するための差分プライバシー原則を組み合わせたものである。
論文 参考訳(メタデータ) (2022-12-01T13:20:37Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - P3GM: Private High-Dimensional Data Release via Privacy Preserving
Phased Generative Model [23.91327154831855]
本稿では,プライバシ保護型位相生成モデル(P3GM)を提案する。
P3GMは2段階の学習プロセスを採用し、ノイズに対して堅牢にし、学習効率を向上させる。
最先端の手法と比較して、生成したサンプルはノイズが少なく、データ多様性の観点からも元のデータに近いように見える。
論文 参考訳(メタデータ) (2020-06-22T09:47:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。