論文の概要: Privacy-Preserving Generative Models: A Comprehensive Survey
- arxiv url: http://arxiv.org/abs/2502.03668v1
- Date: Wed, 05 Feb 2025 23:24:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:32:57.928052
- Title: Privacy-Preserving Generative Models: A Comprehensive Survey
- Title(参考訳): プライバシ保護ジェネレーティブモデル:包括的調査
- Authors: Debalina Padariya, Isabel Wagner, Aboozar Taherkhani, Eerke Boiten,
- Abstract要約: 生成モデルの成功にもかかわらず、プライバシとユーティリティーに関するその意味を研究する必要性はより緊急になる。
既存の調査では、GANとVAEのプライバシーとユーティリティの観点を体系的に分類していない。
- 参考スコア(独自算出の注目度): 0.5437298646956505
- License:
- Abstract: Despite the generative model's groundbreaking success, the need to study its implications for privacy and utility becomes more urgent. Although many studies have demonstrated the privacy threats brought by GANs, no existing survey has systematically categorized the privacy and utility perspectives of GANs and VAEs. In this article, we comprehensively study privacy-preserving generative models, articulating the novel taxonomies for both privacy and utility metrics by analyzing 100 research publications. Finally, we discuss the current challenges and future research directions that help new researchers gain insight into the underlying concepts.
- Abstract(参考訳): 生成モデルの成功にもかかわらず、プライバシとユーティリティーに対するその影響を研究する必要性はより緊急になる。
多くの研究は、GANがもたらすプライバシーの脅威を実証しているが、既存の調査では、GANとVAEのプライバシーとユーティリティの観点を体系的に分類していない。
本稿では,プライバシ保護生成モデルを総合的に研究し,プライバシとユーティリティメトリクスの両面での新しい分類法を,100の研究論文の分析によって明らかにする。
最後に、新しい研究者が基礎となる概念を理解するのに役立つ現在の課題と今後の研究の方向性について論じる。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - New Emerged Security and Privacy of Pre-trained Model: a Survey and Outlook [54.24701201956833]
セキュリティとプライバシーの問題は、事前訓練されたモデルに対するユーザーの信頼を損なう。
現在の文献は、事前訓練されたモデルに対する攻撃と防御の明確な分類を欠いている。
この分類法は、攻撃と防御をNo-Change、Input-Change、Model-Changeアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-12T10:15:33Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Recent Advances of Differential Privacy in Centralized Deep Learning: A
Systematic Survey [1.89915151018241]
微分プライバシーは、機械学習におけるデータ保護の一般的な方法となっている。
このサーベイは、微分的にプライベートな集中型ディープラーニングの最先端技術の概要を提供する。
論文 参考訳(メタデータ) (2023-09-28T12:44:59Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Security and Privacy on Generative Data in AIGC: A Survey [17.456578314457612]
我々はAIGCにおける生成データのセキュリティとプライバシについてレビューする。
プライバシ、制御性、信頼性、コンプライアンスの基本的な性質の観点から、最先端の対策が成功した経験を明らかにする。
論文 参考訳(メタデータ) (2023-09-18T02:35:24Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Generative Adversarial Networks: A Survey Towards Private and Secure
Applications [11.810895820428515]
Generative Adversarial Networks (GAN) はコンピュータビジョンや自然言語処理などの様々な応用を推進してきた。
GANは、データ生成ベースのタスクに優れたパフォーマンスを提供するだけでなく、プライバシとセキュリティ指向の研究のための受精を促進する。
論文 参考訳(メタデータ) (2021-06-07T16:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。