論文の概要: Neighborhood Blending: A Lightweight Inference-Time Defense Against Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2602.12943v1
- Date: Fri, 13 Feb 2026 14:01:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.974879
- Title: Neighborhood Blending: A Lightweight Inference-Time Defense Against Membership Inference Attacks
- Title(参考訳): 近隣ブレンディング:軽量な推論時間による会員推論攻撃に対する防御
- Authors: Osama Zafar, Shaojie Zhan, Tianxi Ji, Erman Ayday,
- Abstract要約: 近隣ブレンディング(Neighborhood Blending)と呼ばれる新しい予測時防衛機構を導入する。
提案手法は,敵と区別できない,一貫した信頼パターン,メンバと非メンバのレンダリングを実現する。
これはモデルに依存しないアプローチであり、実用的で軽量なソリューションを提供し、モデルユーティリティを犠牲にすることなくプライバシを強化する。
- 参考スコア(独自算出の注目度): 5.468130838517792
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, the widespread adoption of Machine Learning as a Service (MLaaS), particularly in sensitive environments, has raised considerable privacy concerns. Of particular importance are membership inference attacks (MIAs), which exploit behavioral discrepancies between training and non-training data to determine whether a specific record was included in the model's training set, thereby presenting significant privacy risks. Although existing defenses, such as adversarial regularization, DP-SGD, and MemGuard, assist in mitigating these threats, they often entail trade-offs such as compromising utility, increased computational requirements, or inconsistent protection against diverse attack vectors. In this paper, we introduce a novel inference-time defense mechanism called Neighborhood Blending, which mitigates MIAs without retraining the model or incurring significant computational overhead. Our approach operates post-training by smoothing the model's confidence outputs based on the neighborhood of a queried sample. By averaging predictions from similar training samples selected using differentially private sampling, our method establishes a consistent confidence pattern, rendering members and non-members indistinguishable to an adversary while maintaining high utility. Significantly, Neighborhood Blending maintains label integrity (zero label loss) and ensures high utility through an adaptive, "pay-as-you-go" distortion strategy. It is a model-agnostic approach that offers a practical, lightweight solution that enhances privacy without sacrificing model utility. Through extensive experiments across diverse datasets and models, we demonstrate that our defense significantly reduces MIA success rates while preserving model performance, outperforming existing post-hoc defenses like MemGuard and training-time techniques like DP-SGD in terms of utility retention.
- Abstract(参考訳): 近年、特にセンシティブな環境において機械学習・アズ・ア・サービス(MLaaS)が広く採用されていることで、プライバシに関する懸念が高まっている。
特に重要なのは、トレーニングと非トレーニングデータ間の振る舞いの相違を利用して、特定のレコードがモデルのトレーニングセットに含まれているかどうかを判断するメンバシップ推論攻撃(MIA)である。
敵の正規化、DP-SGD、MemGuardなどの既存の防衛はこれらの脅威を軽減するのに役立っているが、実用性の向上、計算要求の増大、多様な攻撃ベクトルに対する一貫性のない保護といったトレードオフがしばしば必要である。
本稿では,モデルの再学習や計算オーバーヘッドの増大を伴わずにMIAを緩和する,Neighborhood Blendingと呼ばれる新しい推論時防御機構を提案する。
提案手法は,探索サンプルの近傍をベースとしたモデルの信頼性出力をスムースにすることで,後学習を行う。
差分的プライベートサンプリングを用いて選択した類似のトレーニングサンプルの予測を平均化することにより、高い実用性を維持しつつ、敵と区別できない、一貫した信頼パターンを確立する。
重要なことは、近隣ブレンディングはラベルの完全性(ゼロラベルの損失)を維持し、適応的な「ペイ・アズ・ユー・ゴー」歪曲戦略を通じて高い実用性を確保することである。
これはモデルに依存しないアプローチであり、実用的で軽量なソリューションを提供し、モデルユーティリティを犠牲にすることなくプライバシを強化する。
多様なデータセットやモデルにわたる広範な実験を通じて、当社の防衛はモデル性能を維持しながらMIAの成功率を著しく低下させ、MemGuardのような既存のポストホックディフェンスやDP-SGDのようなトレーニングタイム技術よりも優れていることを実証した。
関連論文リスト
- GShield: Mitigating Poisoning Attacks in Federated Learning [2.6260952524631787]
Federated Learning (FL) は、最近、機械学習モデルを協調訓練するための革命的なアプローチとして登場した。
データプライバシを保護しながら、分散モデルのトレーニングを可能にするが、その分散特性により、Data Poisoningとして知られる深刻な攻撃に対して、非常に脆弱である。
我々はGShieldと呼ばれる新しい防御機構を提案し、悪質で低品質な更新を検知・緩和する。
論文 参考訳(メタデータ) (2025-12-22T11:29:28Z) - Differential Privacy: Gradient Leakage Attacks in Federated Learning Environments [0.6850683267295249]
フェデレート・ラーニング(FL)は、センシティブなデータを共有せずに、協調的に機械学習モデルのトレーニングを可能にする。
Gradient Leakage Attacks (GLAs)は、共有モデルの更新からプライベート情報を公開することができる。
GLAに対する防衛手段としての差別化プライバシメカニズムの有効性について検討する。
論文 参考訳(メタデータ) (2025-10-27T23:33:21Z) - AdaMixup: A Dynamic Defense Framework for Membership Inference Attack Mitigation [3.593261887572616]
メンバーシップ推論攻撃は、ディープラーニングモデルのトレーニングにおいて重要なプライバシー上の懸念として浮上している。
AdaMixupは、モデルのメンバシップ推論攻撃に対する堅牢性を高めるために、適応的なミックスアップ技術を使用している。
論文 参考訳(メタデータ) (2025-01-04T04:21:48Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Overconfidence is a Dangerous Thing: Mitigating Membership Inference
Attacks by Enforcing Less Confident Prediction [2.2336243882030025]
機械学習モデルは、メンバシップ推論攻撃(MIA)に対して脆弱である
この研究は、強力なメンバーシップのプライバシと高い精度の両方を、余分なデータを必要とすることなく達成できる防衛技術であるHAMPを提案する。
論文 参考訳(メタデータ) (2023-07-04T09:50:33Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。