論文の概要: LeakBoost: Perceptual-Loss-Based Membership Inference Attack
- arxiv url: http://arxiv.org/abs/2602.05748v1
- Date: Thu, 05 Feb 2026 15:15:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.995998
- Title: LeakBoost: Perceptual-Loss-Based Membership Inference Attack
- Title(参考訳): LeakBoost: パーセプティブロスベースのメンバーシップ推論攻撃
- Authors: Amit Kravchik Taub, Fred M. Grabovski, Guy Amit, Yisroel Mirsky,
- Abstract要約: LeakBoostは知覚的ロスに基づく尋問フレームワークで、モデルの内部表現を積極的に調査して、隠されたメンバシップ信号を公開する。
LeakBoostは、複数の画像分類データセットと多様なニューラルネットワークアーキテクチャで、低い偽陽性率で大幅に改善されている。
- 参考スコア(独自算出の注目度): 4.82560917771631
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership inference attacks (MIAs) aim to determine whether a sample was part of a model's training set, posing serious privacy risks for modern machine-learning systems. Existing MIAs primarily rely on static indicators, such as loss or confidence, and do not fully leverage the dynamic behavior of models when actively probed. We propose LeakBoost, a perceptual-loss-based interrogation framework that actively probes a model's internal representations to expose hidden membership signals. Given a candidate input, LeakBoost synthesizes an interrogation image by optimizing a perceptual (activation-space) objective, amplifying representational differences between members and non-members. This image is then analyzed by an off-the-shelf membership detector, without modifying the detector itself. When combined with existing membership inference methods, LeakBoost achieves substantial improvements at low false-positive rates across multiple image classification datasets and diverse neural network architectures. In particular, it raises AUC from near-chance levels (0.53-0.62) to 0.81-0.88, and increases TPR at 1 percent FPR by over an order of magnitude compared to strong baseline attacks. A detailed sensitivity analysis reveals that deeper layers and short, low-learning-rate optimization produce the strongest leakage, and that improvements concentrate in gradient-based detectors. LeakBoost thus offers a modular and computationally efficient way to assess privacy risks in white-box settings, advancing the study of dynamic membership inference.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、サンプルがモデルのトレーニングセットの一部であったかどうかを判断することを目的としており、現代の機械学習システムに深刻なプライバシーリスクを生じさせている。
既存のMIAは、主に損失や信頼などの静的な指標に依存しており、積極的に調査する際にモデルの動的挙動を完全に活用していない。
本稿では,モデルの内部表現を積極的に探索し,隠されたメンバーシップ信号を隠蔽する,知覚的ロスに基づく問合せフレームワークLeakBoostを提案する。
候補入力が与えられた後、LeakBoostは、知覚的(活動空間)の目的を最適化し、メンバーと非メンバーの表現的差異を増幅することにより、尋問画像を合成する。
この画像は、検知器自体を変更することなく、既製のメンバーシップ検出器によって分析される。
既存のメンバシップ推論手法と組み合わせることで、LeakBoostは、複数の画像分類データセットと多様なニューラルネットワークアーキテクチャ間で、偽陽性率の低い大幅な改善を実現している。
特に、AUCは近距離レベル(0.53-0.62)から0.81-0.88に上昇し、強いベースライン攻撃に比べて桁違いにTPRを1%FPRで上昇させる。
詳細な感度分析により、より深い層と短い低学習レートの最適化が最強の漏れを生じ、勾配に基づく検出器に改善が集中していることが分かる。
したがってLeakBoostは、ホワイトボックス設定におけるプライバシーリスクを評価するモジュール的で計算的に効率的な方法を提供し、動的メンバシップ推論の研究を進める。
関連論文リスト
- AttenMIA: LLM Membership Inference Attack through Attention Signals [8.170623979629953]
我々は,変圧器モデル内部の自己注意パターンを利用してメンバシップを推定する新しいMIAフレームワークであるAttenMIAを紹介する。
注意に基づく特徴は、特に重要な低偽陽性尺度の下で、一貫してベースラインを上回ります。
また,データ抽出フレームワークにおける他のメンバシップ推論攻撃を置き換えるためにAttenMIAを用いることで,技術状況よりも優れたデータ抽出攻撃を訓練できることを示す。
論文 参考訳(メタデータ) (2026-01-26T03:45:56Z) - Exposing and Defending Membership Leakage in Vulnerability Prediction Models [13.905375956316632]
メンバーシップ推論攻撃(MIA)は、トレーニング中に特定のコードサンプルが使用されたかどうかを推測することを目的としている。
ノイズベースメンバーシップ推論防衛(NMID)は、対向的推論を妨害するために出力マスキングとガウスノイズ注入を適用した軽量防衛モジュールである。
我々の研究は、コード分析における重要なプライバシーリスクを強調し、AIベースのソフトウェアシステムを保護するための実用的な防衛戦略を提供する。
論文 参考訳(メタデータ) (2025-12-09T06:40:51Z) - DeLeaker: Dynamic Inference-Time Reweighting For Semantic Leakage Mitigation in Text-to-Image Models [55.30555646945055]
テキスト・ツー・イメージ(T2I)モデルはセマンティック・リークに対して脆弱である。
DeLeakerは、モデルのアテンションマップに直接介入することで、漏洩を緩和する軽量なアプローチである。
SLIMはセマンティックリークに特化した最初のデータセットである。
論文 参考訳(メタデータ) (2025-10-16T17:39:21Z) - Source-Free Object Detection with Detection Transformer [59.33653163035064]
Source-Free Object Detection (SFOD) は、ソースデータにアクセスすることなく、ソースドメインから教師なしのターゲットドメインへの知識転送を可能にする。
ほとんどの既存のSFODアプローチは、より高速なR-CNNのような従来のオブジェクト検出(OD)モデルに限られるか、新しいODアーキテクチャ、特に検出変換器(DETR)に適合しない一般的なソリューションとして設計されている。
本稿では,DTRのクエリ中心の機能強化を特化して設計された新しいSFODフレームワークであるFeature Reweighting ANd Contrastive Learning NetworK(FRANCK)を紹介する。
論文 参考訳(メタデータ) (2025-10-13T07:35:04Z) - Knowledge Regularized Negative Feature Tuning of Vision-Language Models for Out-of-Distribution Detection [54.433899174017185]
信頼性の高い機械学習モデルを構築するには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
我々はKR-NFT(Knowledge Regularized Negative Feature Tuning)と呼ばれる新しい手法を提案する。
NFTは、事前訓練されたテキスト特徴に分布認識変換を適用し、正および負の特徴を異なる空間に効果的に分離する。
ImageNetデータセットから数発のサンプルをトレーニングすると、KR-NFTはID分類精度とOOD検出を改善するだけでなく、FPR95を5.44%削減する。
論文 参考訳(メタデータ) (2025-07-26T07:44:04Z) - Interpretable Temporal Class Activation Representation for Audio Spoofing Detection [7.476305130252989]
我々は、wav2vec 2.0モデルと注意的発話レベルの特徴を利用して、解釈可能性を直接モデルのアーキテクチャに統合する。
ASVspoof 2019-LAセットのEERは0.51%、min t-DCFは0.0165である。
論文 参考訳(メタデータ) (2024-06-13T05:36:01Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Transformer-Encoder Detector Module: Using Context to Improve Robustness
to Adversarial Attacks on Object Detection [12.521662223741673]
本稿では、オブジェクトインスタンスのラベル付けを改善するために、オブジェクト検出器に適用可能な新しいコンテキストモジュールを提案する。
提案モデルは,ベースラインのFaster-RCNN検出器と比較して,mAP,F1スコア,AUC平均スコアを最大13%向上させる。
論文 参考訳(メタデータ) (2020-11-13T15:52:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。