論文の概要: On the Effectiveness of Membership Inference in Targeted Data Extraction from Large Language Models
- arxiv url: http://arxiv.org/abs/2512.13352v1
- Date: Mon, 15 Dec 2025 14:05:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.688618
- Title: On the Effectiveness of Membership Inference in Targeted Data Extraction from Large Language Models
- Title(参考訳): 大規模言語モデルからのターゲットデータ抽出におけるメンバーシップ推論の有効性について
- Authors: Ali Al Sahili, Ali Chehab, Razane Tajeddine,
- Abstract要約: 大規模言語モデル(LLM)は、mem-orizingトレーニングデータに傾向があり、重大なプライバシーリスクを引き起こす。
本研究では,複数のMIA手法をデータ抽出パイプラインに統合し,その性能を体系的に評価する。
- 参考スコア(独自算出の注目度): 3.1988753364712115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are prone to mem- orizing training data, which poses serious privacy risks. Two of the most prominent concerns are training data extraction and Membership Inference Attacks (MIAs). Prior research has shown that these threats are interconnected: adversaries can extract training data from an LLM by querying the model to generate a large volume of text and subsequently applying MIAs to verify whether a particular data point was included in the training set. In this study, we integrate multiple MIA techniques into the data extraction pipeline to systematically benchmark their effectiveness. We then compare their performance in this integrated setting against results from conventional MIA bench- marks, allowing us to evaluate their practical utility in real-world extraction scenarios.
- Abstract(参考訳): 大規模言語モデル(LLM)は、mem-orizingトレーニングデータに傾向があり、重大なプライバシーリスクを引き起こす。
最も重要な懸念点の2つは、データ抽出とメンバーシップ推論攻撃(MIA)のトレーニングである。
モデルに問い合わせて大量のテキストを生成し、その後MIAを適用してトレーニングセットに特定のデータポイントが含まれているかどうかを検証することで、LLMからトレーニングデータを抽出することができる。
本研究では,複数のMIA手法をデータ抽出パイプラインに統合し,その性能を体系的に評価する。
次に,従来のMIAベンチマークの結果と比較し,実世界の抽出シナリオにおける実用性を評価する。
関連論文リスト
- EL-MIA: Quantifying Membership Inference Risks of Sensitive Entities in LLMs [10.566053894405902]
我々は,LLMプライバシの文脈において,機密情報に着目した会員リスクのエンティティレベル発見という新たな課題を提案する。
既存のMIAの方法は、LLMトレーニングデータにすべてのプロンプトや文書が存在することを検知できるが、より細かい粒度でリスクを捕捉できない。
本研究では,MIA手法の評価のためのベンチマークデータセットを構築した。
論文 参考訳(メタデータ) (2025-10-31T18:50:47Z) - EM-MIAs: Enhancing Membership Inference Attacks in Large Language Models through Ensemble Modeling [2.494935495983421]
本稿では,XGBoostをベースとしたモデルに既存のMIA技術を統合し,全体的な攻撃性能(EM-MIAs)を向上させる新しいアンサンブル攻撃法を提案する。
実験結果から,アンサンブルモデルではAUC-ROCと精度が,大規模言語モデルやデータセットを対象とする個別攻撃法と比較して有意に向上していることがわかった。
論文 参考訳(メタデータ) (2024-12-23T03:47:54Z) - Detecting Training Data of Large Language Models via Expectation Maximization [62.28028046993391]
本稿では,予測最大化アルゴリズムを用いて,メンバーシップスコアとプレフィックススコアを反復的に洗練する新しいメンバーシップ推論手法EM-MIAを紹介する。
EM-MIAはWikiMIAで最先端の結果を得る。
論文 参考訳(メタデータ) (2024-10-10T03:31:16Z) - Evaluating LLM-based Personal Information Extraction and Countermeasures [63.91918057570824]
大規模言語モデル(LLM)に基づく個人情報抽出をベンチマークすることができる。
LLMは攻撃者によって誤用され、個人プロファイルから様々な個人情報を正確に抽出する。
プロンプトインジェクションは強力なLDMベースの攻撃に対して防御し、攻撃をより効果的でない従来の攻撃に還元する。
論文 参考訳(メタデータ) (2024-08-14T04:49:30Z) - Do Membership Inference Attacks Work on Large Language Models? [141.2019867466968]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットモデルのトレーニングデータのメンバーであるかどうかを予測しようとする。
我々は、Pileで訓練された言語モデルに対して、MIAの大規模評価を行い、そのパラメータは160Mから12Bまでである。
様々な LLM サイズや領域にまたがるほとんどの設定において,MIA はランダムな推測よりもほとんど優れていないことがわかった。
論文 参考訳(メタデータ) (2024-02-12T17:52:05Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。