論文の概要: LoMime: Query-Efficient Membership Inference using Model Extraction in Label-Only Settings
- arxiv url: http://arxiv.org/abs/2602.18934v1
- Date: Sat, 21 Feb 2026 18:57:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.402161
- Title: LoMime: Query-Efficient Membership Inference using Model Extraction in Label-Only Settings
- Title(参考訳): LoMime:ラベルオンリー設定におけるモデル抽出を用いたクエリ効率の良いメンバーシップ推論
- Authors: Abdullah Caglar Oksuz, Anisa Halimi, Erman Ayday,
- Abstract要約: メンバシップ推論攻撃(MIA)は、トレーニング中に特定のデータポイントが使用されたかどうかを明らかにすることで、マシンラーニングモデルのプライバシを脅かす。
転送可能性とモデル抽出に基づく,コスト効率の高いラベルのみのMIAフレームワークを提案する。
提案手法は,検索コストを大幅に削減しつつ,最先端のラベルのみのMIAの性能に適合する。
- 参考スコア(独自算出の注目度): 3.4228148164859857
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Membership inference attacks (MIAs) threaten the privacy of machine learning models by revealing whether a specific data point was used during training. Existing MIAs often rely on impractical assumptions such as access to public datasets, shadow models, confidence scores, or training data distribution knowledge and making them vulnerable to defenses like confidence masking and adversarial regularization. Label-only MIAs, even under strict constraints suffer from high query requirements per sample. We propose a cost-effective label-only MIA framework based on transferability and model extraction. By querying the target model M using active sampling, perturbation-based selection, and synthetic data, we extract a functionally similar surrogate S on which membership inference is performed. This shifts query overhead to a one-time extraction phase, eliminating repeated queries to M . Operating under strict black-box constraints, our method matches the performance of state-of-the-art label-only MIAs while significantly reducing query costs. On benchmarks including Purchase, Location, and Texas Hospital, we show that a query budget equivalent to testing $\approx1\%$ of training samples suffices to extract S and achieve membership inference accuracy within $\pm1\%$ of M . We also evaluate the effectiveness of standard defenses proposed for label-only MIAs against our attack.
- Abstract(参考訳): メンバシップ推論攻撃(MIA)は、トレーニング中に特定のデータポイントが使用されたかどうかを明らかにすることで、マシンラーニングモデルのプライバシを脅かす。
既存のMIAは、公開データセット、シャドウモデル、信頼度スコア、データ分散知識のトレーニングといった非現実的な仮定に依存し、信頼マスキングや敵の正規化のような防御に弱いものにすることが多い。
厳格な制約の下でもラベルのみのMIAは、サンプルあたりの高いクエリ要求に悩まされる。
転送可能性とモデル抽出に基づく,コスト効率の高いラベルのみのMIAフレームワークを提案する。
アクティブサンプリング、摂動に基づく選択、合成データを用いてターゲットモデルMを問合せすることにより、メンバーシップ推論を行う機能的に類似したサロゲートSを抽出する。
これにより、クエリのオーバーヘッドを1回抽出フェーズにシフトし、繰り返しクエリをMに削除する。
厳密なブラックボックス制約下での動作は、最先端のラベルのみのMIAの性能に匹敵するが、クエリコストは大幅に削減される。
Purchase、Location、Texas Hospitalなどのベンチマークでは、トレーニングサンプルの$\approx1\%のテストに相当するクエリ予算が、Sを抽出し、Mの$\pm1\%のメンバシップ推論精度を達成するのに十分であることを示している。
また,攻撃に対するラベルのみのMIAに対する標準防御の有効性についても検討した。
関連論文リスト
- ConformalSAM: Unlocking the Potential of Foundational Segmentation Models in Semi-Supervised Semantic Segmentation with Conformal Prediction [57.930531826380836]
本研究は,未ラベル画像のアノテータとして画素レベルの視覚課題におけるラベル不足に,基礎的セグメンテーションモデルが対処できるかどうかを考察する。
ConformalSAMは,まず対象ドメインのラベル付きデータを用いて基礎モデルを校正し,ラベルなしデータの信頼できないピクセルラベルをフィルタリングする新しいSSSSフレームワークである。
論文 参考訳(メタデータ) (2025-07-21T17:02:57Z) - Safeguarding Privacy of Retrieval Data against Membership Inference Attacks: Is This Query Too Close to Home? [14.147748220718784]
RAGシステム用に設計された新しい類似性に基づくMIA検出フレームワークを提案する。
単純な検出・隠蔽戦略は攻撃者を難読化し、データユーティリティを維持でき、MIAに対してシステムに依存しないことを示す。
論文 参考訳(メタデータ) (2025-05-28T07:35:07Z) - Ranked from Within: Ranking Large Multimodal Models Without Labels [73.96543593298426]
ソフトマックス分布から導かれる不確実性スコアは,様々なタスクにまたがるランキングモデルに対して,ロバストな基礎となることを示す。
これにより、ラベルのないデータに対するLMMのランク付けが容易になり、手動のアノテーションを必要とせずに、多様なターゲットドメインのモデルを選択するための実践的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-12-09T13:05:43Z) - Detecting Training Data of Large Language Models via Expectation Maximization [62.28028046993391]
本稿では,予測最大化アルゴリズムを用いて,メンバーシップスコアとプレフィックススコアを反復的に洗練する新しいメンバーシップ推論手法EM-MIAを紹介する。
EM-MIAはWikiMIAで最先端の結果を得る。
論文 参考訳(メタデータ) (2024-10-10T03:31:16Z) - Practical Membership Inference Attacks against Fine-tuned Large Language Models via Self-prompt Calibration [32.15773300068426]
メンバーシップ推論攻撃は、対象のデータレコードがモデルトレーニングに使用されたかどうかを推測することを目的としている。
自己校正確率変動(SPV-MIA)に基づくメンバーシップ推論攻撃を提案する。
論文 参考訳(メタデータ) (2023-11-10T13:55:05Z) - Chameleon: Increasing Label-Only Membership Leakage with Adaptive
Poisoning [8.084254242380057]
メンバーシップ推論(MI)攻撃は、特定のデータサンプルがモデルのトレーニングデータセットに含まれているかどうかを判断する。
既存のラベルのみのMI攻撃は、偽陽性率の低い体制での加入を推測するには効果がないことを示す。
本稿では,新たなアダプティブなデータ中毒戦略と効率的なクエリ選択手法を活用する新たな攻撃型Chameleonを提案する。
論文 参考訳(メタデータ) (2023-10-05T18:46:27Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - MIAShield: Defending Membership Inference Attacks via Preemptive
Exclusion of Members [9.301268830193072]
メンバーシップ推論攻撃では、相手はモデルの予測を観察し、サンプルがモデルのトレーニングデータの一部であるかどうかを判断する。
そこで我々は,MIAShieldを提案する。MIAShieldは,メンバーの存在を隠蔽する代わりに,メンバーサンプルのプリエンプティブ排除に基づく新しいMIAディフェンスである。
我々は,MIAShieldが多岐にわたるMIAの会員推定を効果的に緩和し,最先端の防衛技術と比較してはるかに優れたプライバシー利用トレードオフを実現し,適応的敵に対する耐性を保っていることを示す。
論文 参考訳(メタデータ) (2022-03-02T07:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。