論文の概要: EL-MIA: Quantifying Membership Inference Risks of Sensitive Entities in LLMs
- arxiv url: http://arxiv.org/abs/2511.00192v1
- Date: Fri, 31 Oct 2025 18:50:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.663271
- Title: EL-MIA: Quantifying Membership Inference Risks of Sensitive Entities in LLMs
- Title(参考訳): EL-MIA:LLMにおける感性エンティティの会員推定リスクの定量化
- Authors: Ali Satvaty, Suzan Verberne, Fatih Turkmen,
- Abstract要約: 我々は,LLMプライバシの文脈において,機密情報に着目した会員リスクのエンティティレベル発見という新たな課題を提案する。
既存のMIAの方法は、LLMトレーニングデータにすべてのプロンプトや文書が存在することを検知できるが、より細かい粒度でリスクを捕捉できない。
本研究では,MIA手法の評価のためのベンチマークデータセットを構築した。
- 参考スコア(独自算出の注目度): 10.566053894405902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership inference attacks (MIA) aim to infer whether a particular data point is part of the training dataset of a model. In this paper, we propose a new task in the context of LLM privacy: entity-level discovery of membership risk focused on sensitive information (PII, credit card numbers, etc). Existing methods for MIA can detect the presence of entire prompts or documents in the LLM training data, but they fail to capture risks at a finer granularity. We propose the ``EL-MIA'' framework for auditing entity-level membership risks in LLMs. We construct a benchmark dataset for the evaluation of MIA methods on this task. Using this benchmark, we conduct a systematic comparison of existing MIA techniques as well as two newly proposed methods. We provide a comprehensive analysis of the results, trying to explain the relation of the entity level MIA susceptability with the model scale, training epochs, and other surface level factors. Our findings reveal that existing MIA methods are limited when it comes to entity-level membership inference of the sensitive attributes, while this susceptibility can be outlined with relatively straightforward methods, highlighting the need for stronger adversaries to stress test the provided threat model.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、特定のデータポイントがモデルのトレーニングデータセットの一部であるかどうかを推測することを目的としている。
本稿では,機密情報(PII,クレジットカード番号など)に着目した会員リスクのエンティティレベル発見という,LCMプライバシの文脈における新たな課題を提案する。
既存のMIAの方法は、LLMトレーニングデータにすべてのプロンプトや文書が存在することを検知できるが、より細かい粒度でリスクを捕捉できない。
LLMにおけるエンティティレベルのメンバシップリスクを監査するための 'EL-MIA' フレームワークを提案する。
本研究では,MIA手法の評価のためのベンチマークデータセットを構築した。
このベンチマークを用いて、既存のMIA手法と2つの新しい手法の体系的な比較を行う。
本研究では, モデルスケール, トレーニングエポックス, その他の表面レベル要因とエンティティレベルのMIA感受性の関係を説明するために, 結果の包括的分析を行った。
以上の結果から,既存のMIA手法は,属性のエンティティレベルのメンバシップ推定においては限定的であり,比較的簡単な手法でその感受性を概説し,提案した脅威モデルを評価する上で,より強力な敵の必要性を強調した。
関連論文リスト
- OpenLVLM-MIA: A Controlled Benchmark Revealing the Limits of Membership Inference Attacks on Large Vision-Language Models [8.88331104584743]
OpenLVLM-MIAは,大規模視覚言語モデル(LVLM)に対するメンバシップ推論攻撃(MIA)の評価において,基本的な課題を強調した新しいベンチマークである。
我々は, メンバーと非メンバーの分布を慎重にバランスさせ, 3つの異なるトレーニング段階にまたがって, 基幹メンバーシップラベルを提供する, 6000枚の画像の制御ベンチマークを導入する。
OpenLVLM-MIAを用いた実験では、最先端MIA法の性能は不偏条件下でランダムな確率に収束した。
論文 参考訳(メタデータ) (2025-10-18T01:39:28Z) - How to Choose a Threshold for an Evaluation Metric for Large Language Models [0.9423257767158634]
本稿では,与えられた大規模言語モデル(LLM)評価指標のしきい値を選択するためのステップバイステップのレシピを提案する。
次に,得られたLLM評価基準のしきい値を決定するための,具体的かつ統計的に厳密な手順を提案する。
論文 参考訳(メタデータ) (2024-12-10T21:57:25Z) - Beyond Binary: Towards Fine-Grained LLM-Generated Text Detection via Role Recognition and Involvement Measurement [51.601916604301685]
大規模言語モデル(LLM)は、オンライン談話における信頼を損なう可能性のあるコンテンツを生成する。
現在の手法はバイナリ分類に重点を置いており、人間とLLMのコラボレーションのような現実のシナリオの複雑さに対処できないことが多い。
バイナリ分類を超えてこれらの課題に対処するために,LLM生成コンテンツを検出するための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-18T08:14:10Z) - Detecting Training Data of Large Language Models via Expectation Maximization [62.28028046993391]
本稿では,予測最大化アルゴリズムを用いて,メンバーシップスコアとプレフィックススコアを反復的に洗練する新しいメンバーシップ推論手法EM-MIAを紹介する。
EM-MIAはWikiMIAで最先端の結果を得る。
論文 参考訳(メタデータ) (2024-10-10T03:31:16Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Practical Membership Inference Attacks against Fine-tuned Large Language Models via Self-prompt Calibration [32.15773300068426]
メンバーシップ推論攻撃は、対象のデータレコードがモデルトレーニングに使用されたかどうかを推測することを目的としている。
自己校正確率変動(SPV-MIA)に基づくメンバーシップ推論攻撃を提案する。
論文 参考訳(メタデータ) (2023-11-10T13:55:05Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。