論文の概要: Decoupling Generalizability and Membership Privacy Risks in Neural Networks
- arxiv url: http://arxiv.org/abs/2602.02296v1
- Date: Mon, 02 Feb 2026 16:32:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.295444
- Title: Decoupling Generalizability and Membership Privacy Risks in Neural Networks
- Title(参考訳): ニューラルネットワークにおける一般化可能性とメンバーシッププライバシリスクの分離
- Authors: Xingli Fang, Jung-Eun Kim,
- Abstract要約: ディープラーニングモデルは、通常、いくつかの他の能力や特性を取得する際に、いくつかのユーティリティを犠牲にしなければなりません。
本稿では,ディープニューラルネットワークアーキテクチャにおいて,モデルの一般化とプライバシリスクが異なる領域に存在することを明らかにする。
一般化可能性の損失を最小限に抑えつつ,プライバシリスクからモデルコンポーネントを保護するために,プライバシ保護トレーニング原則(PPTP)を提案する。
- 参考スコア(独自算出の注目度): 8.210473195536077
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A deep learning model usually has to sacrifice some utilities when it acquires some other abilities or characteristics. Privacy preservation has such trade-off relationships with utilities. The loss disparity between various defense approaches implies the potential to decouple generalizability and privacy risks to maximize privacy gain. In this paper, we identify that the model's generalization and privacy risks exist in different regions in deep neural network architectures. Based on the observations that we investigate, we propose Privacy-Preserving Training Principle (PPTP) to protect model components from privacy risks while minimizing the loss in generalizability. Through extensive evaluations, our approach shows significantly better maintenance in model generalizability while enhancing privacy preservation.
- Abstract(参考訳): ディープラーニングモデルは、通常、いくつかの他の能力や特性を取得する際に、いくつかのユーティリティを犠牲にしなければなりません。
プライバシー保護はユーティリティーとのトレードオフがある。
様々な防衛アプローチの損失格差は、プライバシーの利益を最大化するために、一般化可能性とプライバシーリスクを分離する可能性を示唆している。
本稿では,ディープニューラルネットワークアーキテクチャにおいて,モデルの一般化とプライバシリスクが異なる領域に存在することを明らかにする。
そこで本研究では,プライバシ保護トレーニング原則(PPTP)を提案し,プライバシリスクからモデルコンポーネントを保護するとともに,一般化可能性の損失を最小限に抑える。
広範囲な評価により,プライバシ保護の強化を図りながら,モデル一般化可能性の維持が著しく向上した。
関連論文リスト
- Your Privacy Depends on Others: Collusion Vulnerabilities in Individual Differential Privacy [50.66105844449181]
個々の差別的プライバシ(iDP)は、ユーザが自身のプライバシをコントロールすることを約束するが、この約束は実際には破られる可能性がある。
我々は、サンプリングベースのiDPメカニズムにおいて、これまで見過ごされていた脆弱性を明らかにした。
我々は、$(varepsilon_i,_i,overline)$-iDPというプライバシー契約を提案します。
論文 参考訳(メタデータ) (2026-01-19T10:26:12Z) - On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Privacy in Fine-tuning Large Language Models: Attacks, Defenses, and Future Directions [11.338466798715906]
細調整された大規模言語モデル(LLM)は、様々な領域で最先端のパフォーマンスを達成することができる。
本稿では、微調整LDMに関連するプライバシー問題に関する包括的調査を行う。
メンバーシップ推論、データ抽出、バックドア攻撃など、さまざまなプライバシ攻撃に対する脆弱性を強調します。
論文 参考訳(メタデータ) (2024-12-21T06:41:29Z) - Bayes-Nash Generative Privacy Against Membership Inference Attacks [24.330984323956173]
本稿では, プライバシ保護をゲーム理論でモデル化する枠組みを, ディフェンダーとアタッカーのベイズゲームとして提案する。
戦略的複雑さに対処するため、私たちは、プライベートデータセットを公開表現にマッピングするニューラルネットワークジェネレータとして、ディフェンダーの混合戦略を表現します。
当社のアプローチは,より強力な攻撃を発生させ,より優れたプライバシ・ユーティリティ・トレードオフを実現することによって,最先端の手法を著しく上回ります。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - Consistent community detection in multi-layer networks with heterogeneous differential privacy [4.451479907610764]
本稿では,各ノードのプライバシ設定に基づいて,エッジ情報を保護可能なエッジフリップ機構を提案する。
多層度補正ブロックモデルの下でコミュニティ構造を保ちながら、差分プライバシーを実現することができる。
エッジのより優れたプライバシ保護は、ノードの割合で取得可能であると同時に、他のノードがプライバシを放棄できることが示されています。
論文 参考訳(メタデータ) (2024-06-20T22:49:55Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。