論文の概要: What Do LLMs Associate with Your Name? A Human-Centered Black-Box Audit of Personal Data
- arxiv url: http://arxiv.org/abs/2602.17483v1
- Date: Thu, 19 Feb 2026 15:53:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.191942
- Title: What Do LLMs Associate with Your Name? A Human-Centered Black-Box Audit of Personal Data
- Title(参考訳): LLMはあなたの名前にどんな関連があるのか? 個人データの人間中心のブラックボックス監査
- Authors: Dimitri Staufer, Kirsten Morehouse,
- Abstract要約: 大規模言語モデル(LLM)とそれらに基づく会話エージェントは、事前学習とユーザインタラクションの間、個人データ(PD)に露呈する。
LMP2(Language Model Privacy Probe)を導入し、EUの居住者と2つの研究を行った。
GPT-4oは、日常のユーザにとって、60%以上の精度(性別、髪の色、言語など)で11の機能を生成する。最後に、72%の参加者がモデル生成関連を自分の名前でコントロールし、何に数えられるかという疑問を提起している。
- 参考スコア(独自算出の注目度): 0.7161783472741748
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs), and conversational agents based on them, are exposed to personal data (PD) during pre-training and during user interactions. Prior work shows that PD can resurface, yet users lack insight into how strongly models associate specific information to their identity. We audit PD across eight LLMs (3 open-source; 5 API-based, including GPT-4o), introduce LMP2 (Language Model Privacy Probe), a human-centered, privacy-preserving audit tool refined through two formative studies (N=20), and run two studies with EU residents to capture (i) intuitions about LLM-generated PD (N1=155) and (ii) reactions to tool output (N2=303). We show empirically that models confidently generate multiple PD categories for well-known individuals. For everyday users, GPT-4o generates 11 features with 60% or more accuracy (e.g., gender, hair color, languages). Finally, 72% of participants sought control over model-generated associations with their name, raising questions about what counts as PD and whether data privacy rights should extend to LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)とそれらに基づく会話エージェントは、事前トレーニングとユーザインタラクションの間、個人データ(PD)に露呈する。
以前の研究は、PDが再浮上できることを示しているが、ユーザーは特定の情報と自身のアイデンティティをいかに強く関連づけるかについての洞察を欠いている。
LMP2(Language Model Privacy Probe)は,2つの形式研究(N=20)を通じて洗練された人間中心のプライバシ保護型監査ツールである。
(i)LPM生成PDに関する直観(N1=155)
(II)工具出力に対する反応(N2=303)。
モデルがよく知られた個人に対して,複数のPDカテゴリを確実に生成することを示す。
GPT-4oは毎日、60%以上の精度(性別、髪の色、言語など)で11の機能を生成する。
最後に、参加者の72%がモデル生成関連団体を自分の名前で管理し、PDに数えられるか、データプライバシの権利がLLMに拡張されるべきかどうかという疑問を提起した。
関連論文リスト
- What Should LLMs Forget? Quantifying Personal Data in LLMs for Right-to-Be-Forgotten Requests [0.0]
大きな言語モデル(LLM)は、個人情報を記憶し、公開し、EU、特に忘れられる権利(RTBF)へのコンプライアンスに関する懸念を提起する。
既存の機械学習手法は、忘れるべきデータが既に知られているが、モデルに格納されている個々の関連性を特定する方法には対処していないと仮定する。
WikiMemは、Wikidataから243の人間関連プロパティをカバーした5000以上の自然言語カナリアのデータセットと、LLMにおける人事関連を定量化するためのモデルに依存しないメトリクスを紹介する。
論文 参考訳(メタデータ) (2025-07-15T09:28:44Z) - MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - Can Large Language Models Really Recognize Your Name? [23.4365383606717]
現代大規模言語モデル(LLM)は、曖昧な文脈のため、短いテキストスニペットでも定期的に人名を見落としている。
AMBENCHは、明らかに不明瞭な人物名のベンチマークデータセットである。
論文 参考訳(メタデータ) (2025-05-20T16:05:05Z) - An Empirical Study of Many-to-Many Summarization with Large Language Models [82.10000188179168]
大規模言語モデル(LLM)は強い多言語能力を示しており、実アプリケーションでM2MS(Multi-to-Many summarization)を実行する可能性を秘めている。
本研究は,LLMのM2MS能力に関する系統的研究である。
論文 参考訳(メタデータ) (2025-05-19T11:18:54Z) - Information-Guided Identification of Training Data Imprint in (Proprietary) Large Language Models [52.439289085318634]
情報誘導プローブを用いて,プロプライエタリな大規模言語モデル (LLM) で知られているトレーニングデータを識別する方法を示す。
我々の研究は、重要な観察の上に成り立っている: 高次数テキストパスは、暗記プローブにとって良い検索材料である。
論文 参考訳(メタデータ) (2025-03-15T10:19:15Z) - Machine Learners Should Acknowledge the Legal Implications of Large Language Models as Personal Data [2.4578723416255754]
ほとんどの大規模言語モデル(LLM)は、ある程度のトレーニングデータを記憶している。
LLMが少量の個人データを記憶している場合でも、通常はデータ保護法の範囲に該当する。
本稿では,機械学習研究者がML開発ライフサイクル全体を通じて,LLMの法的意味を個人データとして認めなければならないことを論じる。
論文 参考訳(メタデータ) (2025-03-03T15:05:48Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Exploring Safety-Utility Trade-Offs in Personalized Language Models [26.792174008353008]
大規模言語モデル(LLM)はパーソナライズバイアスに悩まされており、ユーザのアイデンティティにパーソナライズされた場合のパフォーマンスに影響を及ぼす。
安全性と実用性という2つの軸に沿ってLLMの性能を評価することにより、パーソナライズバイアスを定量化する。
我々は、嗜好調整とプロンプトベースディフェンスを用いたパーソナライズバイアスを軽減するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2024-06-17T00:17:11Z) - Long-form factuality in large language models [60.07181269469043]
大規模言語モデル(LLM)は、しばしば、オープンエンドトピックの事実検索プロンプトに応答するときに、事実エラーを含むコンテンツを生成する。
我々は、GPT-4を用いて、オープンドメインにおけるモデルの長文事実をベンチマークし、LongFactを生成する。
そこで我々は,LLMエージェントを検索拡張現実性評価器 (SAFE) と呼ぶ手法により,長期的事実性の自動評価器として使用できることを提案する。
論文 参考訳(メタデータ) (2024-03-27T17:48:55Z) - Do Membership Inference Attacks Work on Large Language Models? [141.2019867466968]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットモデルのトレーニングデータのメンバーであるかどうかを予測しようとする。
我々は、Pileで訓練された言語モデルに対して、MIAの大規模評価を行い、そのパラメータは160Mから12Bまでである。
様々な LLM サイズや領域にまたがるほとんどの設定において,MIA はランダムな推測よりもほとんど優れていないことがわかった。
論文 参考訳(メタデータ) (2024-02-12T17:52:05Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - PersonaLLM: Investigating the Ability of Large Language Models to Express Personality Traits [30.770525830385637]
本研究では,ビッグファイブ・パーソナリティ・モデルに基づく大規模言語モデル(LLM)の行動について検討する。
その結果, LLMペルソナの自己申告したBFIスコアは, 指定した性格タイプと一致していることがわかった。
人間の評価は、人間は最大80%の精度でいくつかの性格特性を知覚できることを示している。
論文 参考訳(メタデータ) (2023-05-04T04:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。