論文の概要: Exposing LLM User Privacy via Traffic Fingerprint Analysis: A Study of Privacy Risks in LLM Agent Interactions
- arxiv url: http://arxiv.org/abs/2510.07176v1
- Date: Wed, 08 Oct 2025 16:16:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.615276
- Title: Exposing LLM User Privacy via Traffic Fingerprint Analysis: A Study of Privacy Risks in LLM Agent Interactions
- Title(参考訳): 交通指紋解析によるLLMユーザプライバシの公開:LLMエージェントインタラクションにおけるプライバシリスクの検討
- Authors: Yixiang Zhang, Xinhao Deng, Zhongyi Gu, Yihao Chen, Ke Xu, Qi Li, Jianping Wu,
- Abstract要約: 大きな言語モデル(LLM)は、タスクを編成し、外部ツールを統合するエージェントとして、ますます多くデプロイされている。
これらの対話行動は、ユーザとLLMエージェント間の暗号化されたトラフィックに特徴的な指紋を残していることを示す。
エージェントやツールの呼び出しに関連するトラフィックパターンを分析することで、敵はエージェントアクティビティを推論できる。
- 参考スコア(独自算出の注目度): 31.392818526374963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are increasingly deployed as agents that orchestrate tasks and integrate external tools to execute complex workflows. We demonstrate that these interactive behaviors leave distinctive fingerprints in encrypted traffic exchanged between users and LLM agents. By analyzing traffic patterns associated with agent workflows and tool invocations, adversaries can infer agent activities, distinguish specific agents, and even profile sensitive user attributes. To highlight this risk, we develop AgentPrint, which achieves an F1-score of 0.866 in agent identification and attains 73.9% and 69.1% top-3 accuracy in user attribute inference for simulated- and real-user settings, respectively. These results uncover an overlooked risk: the very interactivity that empowers LLM agents also exposes user privacy, underscoring the urgent need for technical countermeasures alongside regulatory and policy safeguards.
- Abstract(参考訳): 大きな言語モデル(LLM)は、タスクを編成し、複雑なワークフローを実行するための外部ツールを統合するエージェントとして、ますます多くデプロイされている。
これらの対話行動は、ユーザとLLMエージェント間の暗号化されたトラフィックに特徴的な指紋を残していることを示す。
エージェントワークフローやツール呼び出しに関連するトラフィックパターンを分析することで、相手はエージェントアクティビティを推論したり、特定のエージェントを識別したり、さらにはプロファイルに敏感なユーザ属性を特定できる。
このリスクを強調するために,エージェント識別におけるF1スコアの0.866を達成し,シミュレーションおよび実ユーザ設定におけるユーザ属性推定における73.9%と69.1%のトップ3の精度を達成するAgentPrintを開発した。
LLMエージェントに権限を与える非常に相互作用性は、ユーザのプライバシも公開し、規制やポリシーの保護とともに、技術的な対策が緊急に必要であることを強調している。
関連論文リスト
- OpenAgentSafety: A Comprehensive Framework for Evaluating Real-World AI Agent Safety [58.201189860217724]
OpenAgentSafetyは,8つの危機リスクカテゴリにまたがるエージェントの動作を評価する包括的なフレームワークである。
従来の作業とは異なり、我々のフレームワークは、Webブラウザ、コード実行環境、ファイルシステム、bashシェル、メッセージングプラットフォームなど、実際のツールと対話するエージェントを評価します。
ルールベースの分析とLSM-as-judgeアセスメントを組み合わせることで、過度な行動と微妙な不安全行動の両方を検出する。
論文 参考訳(メタデータ) (2025-07-08T16:18:54Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - Prompt Flow Integrity to Prevent Privilege Escalation in LLM Agents [12.072737324367937]
大規模言語モデル(LLM)における特権エスカレーションを防止するために,PFI(Prompt Flow Integrity)を提案する。
PFIは、エージェントアイソレーション、セキュアな信頼できないデータ処理、特権エスカレーションガードレールの3つの緩和技術を備えている。
評価の結果, PFI は LLM エージェントの有効性を保ちながら, 特権エスカレーション攻撃を効果的に軽減できることが示唆された。
論文 参考訳(メタデータ) (2025-03-17T05:27:57Z) - Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - Whispers in the Machine: Confidentiality in Agentic Systems [7.893457690926516]
エージェントシステムは、ほとんどのユーザインタラクションと外部ツールやサービスとの様々な統合のためのインターフェースとして、Large Language Models (LLM) を使用する。
操作された統合は内部のLCMを利用して、他のインターフェースを通してアクセスされた機密データを侵害することができる。
外部ツールの統合によるシステムへのLLMの統合は、確立されたプロンプトベースの攻撃と同じようなリスクをもたらすことを示す。
論文 参考訳(メタデータ) (2024-02-10T11:07:24Z) - MobileAgent: enhancing mobile control via human-machine interaction and
SOP integration [0.0]
大規模言語モデル(LLM)は、ユーザのためのモバイルデバイス操作を自動化できるようになった。
パーソナライズされたユーザデータに関するプライバシー上の懸念は、モバイル操作中に発生し、ユーザ確認が必要になる。
エージェントと人間間の対話的なタスクを設計し、機密情報を識別し、パーソナライズされたユーザニーズに合わせる。
提案手法は,複数ステップのタスクにまたがる30Kのユニークな命令を含む新しいデバイス制御ベンチマークであるAitWで評価される。
論文 参考訳(メタデータ) (2024-01-04T03:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。