論文の概要: SoK: Challenges in Tabular Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2601.15874v1
- Date: Thu, 22 Jan 2026 11:30:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.586548
- Title: SoK: Challenges in Tabular Membership Inference Attacks
- Title(参考訳): SoK: タブラルメンバーシップ推論攻撃の課題
- Authors: Cristina Pêra, Tânia Carvalho, Maxime Cordy, Luís Antunes,
- Abstract要約: メンバーシップ推論攻撃(MIA)は、機械学習アプリケーションにおけるプライバシを評価する主要なアプローチである。
本稿では、中央集権学習と連合学習の2つの主要な学習パラダイムを考慮したMIAの広範なレビューと分析を行う。
攻撃性能が限られている攻撃でも、シングルアウトの大部分をうまく公開できることが示されています。
- 参考スコア(独自算出の注目度): 10.848042721721491
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Membership Inference Attacks (MIAs) are currently a dominant approach for evaluating privacy in machine learning applications. Despite their significance in identifying records belonging to the training dataset, several concerns remain unexplored, particularly with regard to tabular data. In this paper, first, we provide an extensive review and analysis of MIAs considering two main learning paradigms: centralized and federated learning. We extend and refine the taxonomy for both. Second, we demonstrate the efficacy of MIAs in tabular data using several attack strategies, also including defenses. Furthermore, in a federated learning scenario, we consider the threat posed by an outsider adversary, which is often neglected. Third, we demonstrate the high vulnerability of single-outs (records with a unique signature) to MIAs. Lastly, we explore how MIAs transfer across model architectures. Our results point towards a general poor performance of these attacks in tabular data which contrasts with previous state-of-the-art. Notably, even attacks with limited attack performance can still successfully expose a large portion of single-outs. Moreover, our findings suggest that using different surrogate models makes MIAs more effective.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、マシンラーニングアプリケーションにおけるプライバシ評価において、現在支配的なアプローチである。
トレーニングデータセットに属するレコードを特定することの重要性にもかかわらず、特に表データに関していくつかの懸念は未解決のままである。
本稿ではまず,中央集権学習と連合学習の2つの主要な学習パラダイムを考慮したMIAの広範なレビューと分析を行う。
両方の分類を拡張・洗練します。
第2に,防衛を含むいくつかの攻撃戦略を用いて,表計算データにおけるMIAの有効性を実証する。
さらに、連合学習シナリオでは、外部の敵が引き起こす脅威を考慮し、しばしば無視される。
第3に、MIAに対するシングルアウト(ユニークなシグネチャが記録されている)の脆弱性を実証する。
最後に、MIAがモデルアーキテクチャ間でどのように移行するかについて検討する。
本稿の結果は,従来の最先端技術と対照的な表型データによる攻撃の全般的な性能低下を示唆している。
特に、攻撃性能が限られている攻撃でさえ、シングルアウトの大きな部分を公開することに成功している。
さらに,異なるサロゲートモデルを用いることで,MIAsの有効性が向上することが示唆された。
関連論文リスト
- Empirical Comparison of Membership Inference Attacks in Deep Transfer Learning [4.877819365490361]
メンバーシップ推論攻撃(MIA)は、機械学習モデルによるプライバシー漏洩を実証的に推定する。
転送学習における多種多様なMIAの性能を比較し,プライバシリスク評価における最も効率的な攻撃の特定を支援する。
論文 参考訳(メタデータ) (2025-10-07T10:21:05Z) - A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - Revisiting Model Inversion Evaluation: From Misleading Standards to Reliable Privacy Assessment [63.07424521895492]
モデル反転(MI)攻撃は、機械学習モデルTへのアクセスを利用して、プライベートトレーニングデータから情報を再構築することを目的としている。
このような攻撃に対する標準的な評価フレームワークは、Tと同じタスク設計で訓練された評価モデルEに依存している。
このフレームワークはMI研究の進歩を評価するためのデファクトスタンダードとなり、近年のMI攻撃や防衛のほとんどすべてで問題なく使用されている。
論文 参考訳(メタデータ) (2025-05-06T13:32:12Z) - FedMIA: An Effective Membership Inference Attack Exploiting "All for One" Principle in Federated Learning [17.141646895576145]
Federated Learning(FL)は、分散データ上で機械学習モデルをトレーニングするための有望なアプローチである。
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットクライアントのトレーニングセットに属するかどうかを判断することを目的としている。
我々はFedMIAと呼ばれる3段階のメンバーシップ推論攻撃(MIA)手法を導入し、MIAの有効性を高めるため、複数の通信ラウンドにまたがる全クライアントからの更新を平均化する。
論文 参考訳(メタデータ) (2024-02-09T09:58:35Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。