論文の概要: Visual Privacy Auditing with Diffusion Models
- arxiv url: http://arxiv.org/abs/2403.07588v1
- Date: Tue, 12 Mar 2024 12:18:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 21:32:39.897859
- Title: Visual Privacy Auditing with Diffusion Models
- Title(参考訳): 拡散モデルによる視覚的プライバシー監査
- Authors: Kristian Schwethelm, Johannes Kaiser, Moritz Knolle, Daniel Rueckert,
Georgios Kaissis, Alexander Ziller
- Abstract要約: 本稿では,拡散モデル(DM)に基づくリコンストラクション攻撃を提案する。
本研究では,(1)実世界のデータ漏洩が再建の成功に大きく影響すること,(2)現在のリビルド境界がデータ先行によるリスクをうまくモデル化していないこと,(3)DMは,プライバシー漏洩を可視化するための効果的な監査ツールとして機能すること,を示す。
- 参考スコア(独自算出の注目度): 52.866433097406656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image reconstruction attacks on machine learning models pose a significant
risk to privacy by potentially leaking sensitive information. Although
defending against such attacks using differential privacy (DP) has proven
effective, determining appropriate DP parameters remains challenging. Current
formal guarantees on data reconstruction success suffer from overly theoretical
assumptions regarding adversary knowledge about the target data, particularly
in the image domain. In this work, we empirically investigate this discrepancy
and find that the practicality of these assumptions strongly depends on the
domain shift between the data prior and the reconstruction target. We propose a
reconstruction attack based on diffusion models (DMs) that assumes adversary
access to real-world image priors and assess its implications on privacy
leakage under DP-SGD. We show that (1) real-world data priors significantly
influence reconstruction success, (2) current reconstruction bounds do not
model the risk posed by data priors well, and (3) DMs can serve as effective
auditing tools for visualizing privacy leakage.
- Abstract(参考訳): 機械学習モデルに対する画像再構成攻撃は、機密情報を漏洩させることで、プライバシーに重大なリスクをもたらす。
差分プライバシー(DP)を用いた攻撃に対する防御は有効であることが証明されているが、適切なDPパラメータを決定することは依然として困難である。
データ復元の成功に関する現在の形式的保証は、特に画像領域において、ターゲットデータに関する敵対的知識に関する過度な理論的仮定に苦しむ。
本研究では,この相違を実証的に検討し,これらの仮定の実用性は先行データと再構成対象データとのドメインシフトに強く依存していることを見出した。
本研究では,実世界画像への逆アクセスを前提とした拡散モデル(dms)に基づく再構成攻撃を提案し,dp-sgd下でのプライバシー漏洩に対する影響を評価する。
その結果,(1)実世界のデータは復元成功を優先し,(2)現在の復元限界はデータのリスクを十分にモデル化せず,(3)dmsはプライバシー漏洩を可視化するための効果的な監査ツールとして機能することがわかった。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Demystifying Trajectory Recovery From Ash: An Open-Source Evaluation and Enhancement [5.409124675229009]
本研究では, トラジェクショナルリカバリ攻撃をスクラッチから再実装し, 2つのオープンソースデータセット上で評価する。
結果は、一般的な匿名化やアグリゲーション手法にもかかわらず、プライバシリークがまだ存在することを確認した。
ベースライン攻撃に対する一連の強化を設計することで、より強力な攻撃を提案する。
論文 参考訳(メタデータ) (2024-09-23T01:06:41Z) - Explaining the Model, Protecting Your Data: Revealing and Mitigating the Data Privacy Risks of Post-Hoc Model Explanations via Membership Inference [26.596877194118278]
特徴帰属説明に基づく2つの新たなメンバーシップ推論攻撃を提案する。
最適化された個人用微調整は、上記の攻撃の成功を著しく減少させることがわかった。
論文 参考訳(メタデータ) (2024-07-24T22:16:37Z) - Information Leakage from Embedding in Large Language Models [5.475800773759642]
本研究では,入力再構成攻撃によるプライバシー侵害の可能性を検討することを目的とする。
まず,モデルの隠れ状態からオリジナルテキストを再構築する2つの基本手法を提案する。
次に、トランスフォーマーをベースとしたEmbed Parrotを提案し、深層への埋め込みから入力を再構築する。
論文 参考訳(メタデータ) (2024-05-20T09:52:31Z) - Bounding Reconstruction Attack Success of Adversaries Without Data
Priors [53.41619942066895]
機械学習(ML)モデルに対する再構成攻撃は、機密データの漏洩の強いリスクをもたらす。
本研究では,現実的な対角的環境下での再建成功に関する公式な上限を提供する。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。