論文の概要: Automated Profile Inference with Language Model Agents
- arxiv url: http://arxiv.org/abs/2505.12402v1
- Date: Sun, 18 May 2025 13:05:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.213519
- Title: Automated Profile Inference with Language Model Agents
- Title(参考訳): 言語モデルエージェントを用いたプロファイル自動推論
- Authors: Yuntao Du, Zitao Li, Bolin Ding, Yaliang Li, Hanshen Xiao, Jingren Zhou, Ninghui Li,
- Abstract要約: 自動プロファイル推論(Automatic Profile Inference)と呼ばれる,LLMがオンラインの偽名にもたらす新たな脅威について検討する。
相手は、LDMに対して、疑似プラットフォーム上で公開されているユーザアクティビティから、機密性の高い個人属性を自動的に取り除き、抽出するように指示することができる。
実世界のシナリオにおけるこのような脅威の可能性を評価するために,AutoProfilerという自動プロファイリングフレームワークを導入する。
- 参考スコア(独自算出の注目度): 67.32226960040514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Impressive progress has been made in automated problem-solving by the collaboration of large language models (LLMs) based agents. However, these automated capabilities also open avenues for malicious applications. In this paper, we study a new threat that LLMs pose to online pseudonymity, called automated profile inference, where an adversary can instruct LLMs to automatically scrape and extract sensitive personal attributes from publicly visible user activities on pseudonymous platforms. We also introduce an automated profiling framework called AutoProfiler to assess the feasibility of such threats in real-world scenarios. AutoProfiler consists of four specialized LLM agents, who work collaboratively to collect and process user online activities and generate a profile with extracted personal information. Experimental results on two real-world datasets and one synthetic dataset demonstrate that AutoProfiler is highly effective and efficient, and can be easily deployed on a web scale. We demonstrate that the inferred attributes are both sensitive and identifiable, posing significant risks of privacy breaches, such as de-anonymization and sensitive information leakage. Additionally, we explore mitigation strategies from different perspectives and advocate for increased public awareness of this emerging privacy threat to online pseudonymity.
- Abstract(参考訳): 大規模言語モデル(LLM)ベースのエージェントの協調による自動問題解決において、印象的な進歩が達成されている。
しかし、これらの自動化機能は悪意のあるアプリケーションにも開放される。
本稿では,LLMがオンラインの偽名に影響を及ぼす新たな脅威である自動プロファイル推論(Automatic Profile Inference)について検討する。
また、実際のシナリオにおけるこのような脅威の可能性を評価するために、AutoProfilerと呼ばれる自動プロファイリングフレームワークを導入しました。
AutoProfilerは、ユーザのオンライン活動を収集し、処理し、抽出された個人情報でプロファイルを生成するために協力して働く4つの特殊なLLMエージェントで構成されている。
2つの実世界のデータセットと1つの合成データセットの実験結果から、AutoProfilerは極めて効率的で効率的であり、Webスケールで簡単にデプロイ可能であることが示されている。
推定された属性は、感度と識別が可能であり、匿名化や機密情報漏洩などのプライバシー侵害の重大なリスクを生じさせることを示した。
さらに、異なる視点から緩和戦略を検討し、オンラインの偽名に対するこの新たなプライバシー脅威に対する大衆の認識を高めることを提唱する。
関連論文リスト
- Augmenting Anonymized Data with AI: Exploring the Feasibility and Limitations of Large Language Models in Data Enrichment [3.459382629188014]
大規模言語モデル(LLM)は、テキスト生成と理解の両方において高度な機能を示している。
データアーカイブへのそれらの適用は、データ対象に関する機密情報の民営化を促進する可能性がある。
このデータは、保護されていないとしても、開示と身元確認の両方の観点からプライバシー上のリスクをもたらす可能性がある。
論文 参考訳(メタデータ) (2025-04-03T13:26:59Z) - Personalized Attacks of Social Engineering in Multi-turn Conversations -- LLM Agents for Simulation and Detection [19.625518218365382]
ソーシャルメディアプラットフォームに対する社会工学(SE)攻撃は重大なリスクをもたらす。
マルチターン会話を生成することで,SE攻撃機構をシミュレートするLLM-agentic framework,SE-VSimを提案する。
本研究は,被害者の人格に関する事前知識を活用することで,ユーザに対してパーソナライズされた保護を提供するための概念実証SE-OmniGuardを提案する。
論文 参考訳(メタデータ) (2025-03-18T19:14:44Z) - AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [75.85554113398626]
我々は、AIウェブナビゲーションエージェントがデータ最小化のプライバシー原則に従うかどうかを測定する新しいベンチマークAgentDAMを紹介する。
我々のベンチマークは、現実的なWebインタラクションシナリオをエンドツーエンドでシミュレートし、既存のWebナビゲーションエージェントに適応する。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - Evaluating LLM-based Personal Information Extraction and Countermeasures [63.91918057570824]
大規模言語モデル(LLM)に基づく個人情報抽出をベンチマークすることができる。
LLMは攻撃者によって誤用され、個人プロファイルから様々な個人情報を正確に抽出する。
プロンプトインジェクションは強力なLDMベースの攻撃に対して防御し、攻撃をより効果的でない従来の攻撃に還元する。
論文 参考訳(メタデータ) (2024-08-14T04:49:30Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Large Language Models are Advanced Anonymizers [2.9373912230684565]
大規模言語モデル(LLM)に関する最近のプライバシー調査では、オンラインテキストから個人データを推測することで、ほぼ人間レベルのパフォーマンスを達成することが示されている。
既存のテキスト匿名化手法は現在、規制要件や敵の脅威に欠けています。
逆LLM推論の面における匿名性を評価するための新しい設定法を提案する。
論文 参考訳(メタデータ) (2024-02-21T14:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。