論文の概要: Are Large Pre-Trained Language Models Leaking Your Personal Information?
- arxiv url: http://arxiv.org/abs/2205.12628v1
- Date: Wed, 25 May 2022 10:08:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:44:02.350628
- Title: Are Large Pre-Trained Language Models Leaking Your Personal Information?
- Title(参考訳): 大規模事前学習型言語モデルはあなたの個人情報を漏洩しているか?
- Authors: Jie Huang, Hanyin Shao, Kevin Chen-Chuan Chang
- Abstract要約: PLMが個人情報を漏洩しやすいかを測定することを提案する。
PLMは暗記により個人情報を漏洩させる。
しかし,攻撃者が特定個人情報を抽出する危険性は低い。
- 参考スコア(独自算出の注目度): 9.607977873589043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Pre-Trained Language Models (PLMs) have facilitated and dominated many
NLP tasks in recent years. However, despite the great success of PLMs, there
are also privacy concerns brought with PLMs. For example, recent studies show
that PLMs memorize a lot of training data, including sensitive information,
while the information may be leaked unintentionally and be utilized by
malicious attackers.
In this paper, we propose to measure whether PLMs are prone to leaking
personal information. Specifically, we attempt to query PLMs for email
addresses with contexts of the email address or prompts containing the owner's
name. We find that PLMs do leak personal information due to memorization.
However, the risk of specific personal information being extracted by attackers
is low because the models are weak at associating the personal information with
its owner. We hope this work could help the community to better understand the
privacy risk of PLMs and bring new insights to make PLMs safe.
- Abstract(参考訳): 大規模事前学習言語モデル(PLM)は近年、多くのNLPタスクを促進・支配している。
しかし、PLMが大きな成功を収めたにもかかわらず、PLMのプライバシーに関する懸念もある。
例えば、plmsは機密情報を含む多くのトレーニングデータを記憶しており、その情報は意図せず漏洩し、悪意のある攻撃者によって利用される可能性がある。
本稿では, PLM が個人情報を漏洩しやすいかを評価することを提案する。
具体的には、メールアドレスや所有者の名前を含むプロンプトのコンテキストで、メールアドレスのplmをクエリしようとする。
PLMは暗記により個人情報を漏洩させる。
しかし、攻撃者が特定の個人情報を抽出するリスクは、モデルが所有者と個人情報を関連付けることに弱いため低い。
この取り組みが、PLMのプライバシーリスクをよりよく理解し、PLMを安全にするための新たな洞察をもたらすことを期待しています。
関連論文リスト
- LLM Echo Chamber: personalized and automated disinformation [0.0]
大規模な言語モデルは、説得力のある人間のような誤報を大規模に広めることができ、世論に影響を及ぼす可能性がある。
本研究は,誤報を事実として伝達するLSMの能力に着目し,これらのリスクについて検討する。
そこで我々は,ソーシャルメディアのチャットルームを模擬した制御型デジタル環境であるLLM Echo Chamberを構築した。
このセットアップは、説得性と有害性のためにGPT4によって評価され、LSMを取り巻く倫理的懸念に光を当て、誤情報に対するより強力な保護の必要性を強調している。
論文 参考訳(メタデータ) (2024-09-24T17:04:12Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - LLM-PBE: Assessing Data Privacy in Large Language Models [111.58198436835036]
大規模言語モデル(LLM)は多くのドメインに不可欠なものとなり、データ管理、マイニング、分析におけるアプリケーションを大幅に進歩させた。
この問題の批判的な性質にもかかわらず、LLMにおけるデータプライバシのリスクを総合的に評価する文献は存在しない。
本稿では,LLMにおけるデータプライバシリスクの体系的評価を目的としたツールキットであるLLM-PBEを紹介する。
論文 参考訳(メタデータ) (2024-08-23T01:37:29Z) - Evaluating Large Language Model based Personal Information Extraction and Countermeasures [63.91918057570824]
大規模言語モデル(LLM)は、攻撃者が個人プロファイルから様々な個人情報を正確に抽出するために誤用することができる。
LLMはそのような抽出において従来の方法より優れている。
即時注射は、そのようなリスクを広範囲に軽減し、従来の対策より優れている。
論文 参考訳(メタデータ) (2024-08-14T04:49:30Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - Beyond Memorization: Violating Privacy Via Inference with Large Language Models [2.9373912230684565]
本稿では,テキストから個人属性を推測する事前学習言語モデルの能力に関する,最初の総合的研究について述べる。
以上の結果から,現在のLCMでは,従来は達成不可能な規模で個人データを推測することが可能であることが示唆された。
論文 参考訳(メタデータ) (2023-10-11T08:32:46Z) - What can we learn from Data Leakage and Unlearning for Law? [0.0]
大規模言語モデル(LLM)は、トレーニングデータ(電子メールや電話番号などの個人識別可能な情報(PII)を含む)を記憶し、推論中にそれを漏洩させるため、プライバシー上の懸念がある。
忘れられる権利(right to be forget)”のようなプライバシー法に従うために、抽出に最も脆弱なユーザのデータポイントを削除することができる。
また, トレーニング前段階で記憶したトレーニング前データ(およびPII)を漏洩させる。
論文 参考訳(メタデータ) (2023-07-19T22:14:58Z) - Multi-step Jailbreaking Privacy Attacks on ChatGPT [47.10284364632862]
我々は,OpenAI の ChatGPT と ChatGPT によって強化された New Bing のプライバシー上の脅威について検討した。
我々は、当社の主張を裏付ける広範な実験を行い、LLMのプライバシーへの影響について論じる。
論文 参考訳(メタデータ) (2023-04-11T13:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。