論文の概要: A Privacy-Preserving Walk in the Latent Space of Generative Models for
Medical Applications
- arxiv url: http://arxiv.org/abs/2307.02984v1
- Date: Thu, 6 Jul 2023 13:35:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 13:54:54.425345
- Title: A Privacy-Preserving Walk in the Latent Space of Generative Models for
Medical Applications
- Title(参考訳): 医療用生成モデルの潜在空間におけるプライバシ保護ウォーク
- Authors: Matteo Pennisi, Federica Proietto Salanitri, Giovanni Bellitto, Simone
Palazzo, Ulas Bagci, Concetto Spampinato
- Abstract要約: GAN(Generative Adversarial Networks)は、ターゲット分布に一致する合成サンプルを生成する能力を実証している。
GANは、潜伏空間に実際のサンプルのほぼ重複体を埋め込む傾向がある。
本稿では,深層モデルの効果的なトレーニングを支援するために,多種多様な合成サンプルを生成できる潜時空間ナビゲーション戦略を提案する。
- 参考スコア(独自算出の注目度): 11.39717289910264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) have demonstrated their ability to
generate synthetic samples that match a target distribution. However, from a
privacy perspective, using GANs as a proxy for data sharing is not a safe
solution, as they tend to embed near-duplicates of real samples in the latent
space. Recent works, inspired by k-anonymity principles, address this issue
through sample aggregation in the latent space, with the drawback of reducing
the dataset by a factor of k. Our work aims to mitigate this problem by
proposing a latent space navigation strategy able to generate diverse synthetic
samples that may support effective training of deep models, while addressing
privacy concerns in a principled way. Our approach leverages an auxiliary
identity classifier as a guide to non-linearly walk between points in the
latent space, minimizing the risk of collision with near-duplicates of real
samples. We empirically demonstrate that, given any random pair of points in
the latent space, our walking strategy is safer than linear interpolation. We
then test our path-finding strategy combined to k-same methods and demonstrate,
on two benchmarks for tuberculosis and diabetic retinopathy classification,
that training a model using samples generated by our approach mitigate drops in
performance, while keeping privacy preservation.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、ターゲット分布に一致する合成サンプルを生成する能力を実証している。
しかし、プライバシーの観点からは、gansをデータ共有のプロキシとして使うことは安全な解決策ではない。
k-匿名性原理に触発された最近の研究は、潜在空間におけるサンプルアグリゲーションを通じてこの問題に対処し、データセットをkの係数で減らすという欠点がある。
本研究の目的は、奥行きモデルの効果的なトレーニングを支援するために、プライバシー問題に原則的に対処しながら、多様な合成サンプルを生成できる潜航型宇宙航行戦略を提案することである。
提案手法では,潜在空間の点間を非線形に歩いたり,実際のサンプルと衝突するリスクを最小限に抑えるための補助的等式分類器を利用する。
潜在空間における無作為な一対の点を考えると、我々の歩行戦略は線形補間よりも安全である。
次に,k-same法と併用したパス探索戦略を検証し,結核と糖尿病網膜症分類の2つの指標を用いて,プライバシ保護を維持しつつ,そのモデルを用いたトレーニングにより性能低下を軽減できることを示した。
関連論文リスト
- Mitigating Feature Gap for Adversarial Robustness by Feature
Disentanglement [61.048842737581865]
逆方向の微調整法は, 逆方向の訓練方法で, 自然に事前訓練されたモデルを微調整することにより, 逆方向の強靭性を高めることを目的としている。
特徴ギャップの原因となる潜伏する特徴を明示的にモデル化し,取り除く,アンタングルメントに基づくアプローチを提案する。
3つのベンチマークデータセットに対する実証的な評価は、我々のアプローチが既存の逆方向の微調整法や逆方向のトレーニングベースラインを超えていることを示している。
論文 参考訳(メタデータ) (2024-01-26T08:38:57Z) - Robustness Against Adversarial Attacks via Learning Confined Adversarial
Polytopes [0.0]
ディープニューラルネットワーク(DNN)は、クリーンサンプルの人間の知覚できない摂動を発生させることによって、騙される可能性がある。
本稿では,クリーンサンプルに追加されるノルム束縛摂動によって到達可能な出力のセットを制限することで,堅牢なDNNの訓練を目指す。
論文 参考訳(メタデータ) (2024-01-15T22:31:15Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - StyleGenes: Discrete and Efficient Latent Distributions for GANs [149.0290830305808]
GAN(Generative Adversarial Networks)のための離散潜在分布を提案する。
連続的な先行点から潜在ベクトルを描く代わりに、学習可能な潜在点の有限集合からサンプリングする。
私たちは生物の情報のエンコーディングからインスピレーションを得ます。
論文 参考訳(メタデータ) (2023-04-30T23:28:46Z) - Beyond Empirical Risk Minimization: Local Structure Preserving
Regularization for Improving Adversarial Robustness [28.853413482357634]
局所構造保存(LSP)正則化は、学習された埋め込み空間における入力空間の局所構造を保存することを目的としている。
本研究では,学習した埋め込み空間における入力空間の局所構造を保存することを目的とした,新しい局所構造保存(LSP)正規化を提案する。
論文 参考訳(メタデータ) (2023-03-29T17:18:58Z) - On the Privacy Properties of GAN-generated Samples [12.765060550622422]
GANが生成するサンプルは、本質的にいくつかの(弱い)プライバシー保証を満たすことを示す。
また,GAN生成サンプルのメンバシップ推論攻撃に対する堅牢性についても検討した。
論文 参考訳(メタデータ) (2022-06-03T00:29:35Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Generating Out of Distribution Adversarial Attack using Latent Space
Poisoning [5.1314136039587925]
本稿では,実際の画像が破損しない敵の例を生成する新しいメカニズムを提案する。
潜在空間表現は、画像の固有構造を改ざんするために利用される。
勾配ベースの攻撃とは対照的に、潜時空間中毒は、トレーニングデータセットの独立かつ同一分布をモデル化する分類器の傾きを利用する。
論文 参考訳(メタデータ) (2020-12-09T13:05:44Z) - Regularization with Latent Space Virtual Adversarial Training [4.874780144224057]
VAT(Virtual Adversarial Training)は,最近開発された正規化手法において顕著な結果を示した。
入力空間の代わりに潜在空間の摂動を注入するLVATを提案する。
LVATは反対のサンプルを柔軟に生成することができ、より有害な効果をもたらし、より効果的な正則化をもたらす。
論文 参考訳(メタデータ) (2020-11-26T08:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。