論文の概要: DualTAP: A Dual-Task Adversarial Protector for Mobile MLLM Agents
- arxiv url: http://arxiv.org/abs/2511.13248v1
- Date: Mon, 17 Nov 2025 11:08:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.149884
- Title: DualTAP: A Dual-Task Adversarial Protector for Mobile MLLM Agents
- Title(参考訳): DualTAP:モバイルMLLMエージェント用デュアルタスク対向プロテクター
- Authors: Fuyao Zhang, Jiaming Zhang, Che Wang, Xiongtao Sun, Yurong Hao, Guowei Guan, Wenjie Li, Longtao Huang, Wei Yang Bryan Lim,
- Abstract要約: 個人識別情報保護のためのDual-Task Adversarial Protector(DualTAP)を提案する(PII)。
DualTAPは2つの重要なイノベーションを使って軽量発電機を訓練する。
これにより、平均的なプライバシー漏洩率を31.6ポイント削減できる。
- 参考スコア(独自算出の注目度): 21.880380872434475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The reliance of mobile GUI agents on Multimodal Large Language Models (MLLMs) introduces a severe privacy vulnerability: screenshots containing Personally Identifiable Information (PII) are often sent to untrusted, third-party routers. These routers can exploit their own MLLMs to mine this data, violating user privacy. Existing privacy perturbations fail the critical dual challenge of this scenario: protecting PII from the router's MLLM while simultaneously preserving task utility for the agent's MLLM. To address this gap, we propose the Dual-Task Adversarial Protector (DualTAP), a novel framework that, for the first time, explicitly decouples these conflicting objectives. DualTAP trains a lightweight generator using two key innovations: (i) a contrastive attention module that precisely identifies and targets only the PII-sensitive regions, and (ii) a dual-task adversarial objective that simultaneously minimizes a task-preservation loss (to maintain agent utility) and a privacy-interference loss (to suppress PII leakage). To facilitate this study, we introduce PrivScreen, a new dataset of annotated mobile screenshots designed specifically for this dual-task evaluation. Comprehensive experiments on six diverse MLLMs (e.g., GPT-5) demonstrate DualTAP's state-of-the-art protection. It reduces the average privacy leakage rate by 31.6 percentage points (a 3.0x relative improvement) while, critically, maintaining an 80.8% task success rate - a negligible drop from the 83.6% unprotected baseline. DualTAP presents the first viable solution to the privacy-utility trade-off in mobile MLLM agents.
- Abstract(参考訳): 個人識別可能な情報(PII)を含むスクリーンショットは、信頼できないサードパーティのルータに送られることが多い。
これらのルーターは独自のMLLMを使ってデータをマイニングし、ユーザーのプライバシーを侵害する。
PIIをルータのMLLMから保護し、エージェントのMLLMのタスクユーティリティを同時に保持する。
このギャップに対処するため,我々はDual-Task Adversarial Protector (DualTAP)を提案する。
DualTAPは2つの重要なイノベーションを使って軽量発電機を訓練する。
i)PII感受性領域のみを正確に識別し、ターゲットとするコントラストアテンションモジュール
(2)タスク保存損失(エージェントユーティリティを維持するため)とプライバシ干渉損失(PII漏洩を抑制するため)を同時に最小化するデュアルタスク対向目的。
そこで本研究では,このデュアルタスク評価に特化して設計された,注釈付きモバイルスクリーンショットのデータセットであるPrivScreenを紹介する。
6種類のMLLM(例: GPT-5)に関する総合的な実験は、DualTAPの最先端の保護を実証している。
平均プライバシリーク率を31.6ポイント(相対改善率3.0倍)削減する一方で、重要な点として、80.8%のタスク成功率 – 83.6%の未保護ベースラインからの無視できない低下 – を維持している。
DualTAPは、モバイルMLLMエージェントにおけるプライバシユーティリティトレードオフに対する、最初の実行可能なソリューションを提供する。
関連論文リスト
- Visual Backdoor Attacks on MLLM Embodied Decision Making via Contrastive Trigger Learning [89.1856483797116]
MLLMをベースとした組込みエージェントに視覚的バックドアを注入する最初のフレームワークであるBEATを紹介する。
テキストトリガーとは異なり、オブジェクトトリガーは視点や照明の幅が広いため、確実に移植することは困難である。
BEATは攻撃の成功率を最大80%まで達成し、強い良識のあるタスクパフォーマンスを維持します。
論文 参考訳(メタデータ) (2025-10-31T16:50:49Z) - MAGPIE: A benchmark for Multi-AGent contextual PrIvacy Evaluation [61.92403071137653]
既存のプライバシベンチマークは、タスクの結果に影響を与えることなく、プライベート情報を簡単に省略できる、単純化されたシングルターンインタラクションにのみフォーカスする。
我々は,多エージェント協調型非競合シナリオにおけるプライバシ理解と保存性を評価するための新しいベンチマークであるMAGPIEを紹介する。
評価の結果,GPT-5やGemini 2.5-Proを含む最先端のエージェントは,重大なプライバシー侵害を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-10-16T23:12:12Z) - Privacy in Action: Towards Realistic Privacy Mitigation and Evaluation for LLM-Powered Agents [40.39717403627143]
モデルに依存しないコンテキスト整合性に基づく緩和アプローチであるPrivacyCheckerを提案する。
静的ベンチマークを動的MPPとA2A環境に変換するPrivacyLens-Liveも導入しています。
私たちのデータとコードはhttps://aka.ms/privacy_in_action.orgで公開されます。
論文 参考訳(メタデータ) (2025-09-22T08:19:06Z) - MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - Backdoor Cleaning without External Guidance in MLLM Fine-tuning [76.82121084745785]
Believe Your Eyes (BYE)は、アテンションエントロピーパターンを自己教師信号として活用して、バックドアサンプルを特定してフィルタリングするデータフィルタリングフレームワークである。
クリーンタスクのパフォーマンスを維持しながら、ほぼゼロの攻撃成功率を達成する。
論文 参考訳(メタデータ) (2025-05-22T17:11:58Z) - FedSEA-LLaMA: A Secure, Efficient and Adaptive Federated Splitting Framework for Large Language Models [13.304846508027588]
LLaMA2に基づくセキュアで効率的で適応的なフェデレーション分割フレームワークであるFedSEA-LLaMAを紹介する。
我々は、注意マスク圧縮とKVキャッシュの協調を利用して、通信コストを削減し、トレーニングと推論を加速する。
自然言語理解、要約、会話型QAタスクの実験は、FedSEA-LLaMAが集中型LLaMA2に匹敵するパフォーマンスを維持していることを示している。
論文 参考訳(メタデータ) (2025-05-21T15:58:08Z) - PrivacyScalpel: Enhancing LLM Privacy via Interpretable Feature Intervention with Sparse Autoencoders [8.483679748399037]
大規模言語モデル(LLM)は自然言語処理において顕著な能力を示したが、個人識別情報(PII)を記憶・漏洩することによりプライバシーリスクを生じさせる。
差分プライバシーやニューロンレベルの介入のような既存の緩和戦略は、しばしばモデルユーティリティを劣化させたり、リークを効果的に防いだりしない。
性能を維持しながらPIIリークを識別・緩和するために解釈可能性技術を活用する,新たなプライバシ保護フレームワークであるPrivacyScalpelを紹介する。
論文 参考訳(メタデータ) (2025-03-14T09:31:01Z) - PersGuard: Preventing Malicious Personalization via Backdoor Attacks on Pre-trained Text-to-Image Diffusion Models [51.458089902581456]
特定の画像の悪質なパーソナライズを防ぐ新しいバックドアベースのアプローチであるPersGuardを紹介する。
我々の手法は既存の技術よりも優れており、プライバシーと著作権保護に対するより堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-22T09:47:55Z) - Efficiently Disentangling CLIP for Multi-Object Perception [62.523137132812764]
CLIPのような視覚言語モデルは、シーン内の1つの顕著なオブジェクトを認識するのに優れていますが、複数のオブジェクトを含む複雑なシーンで苦労しています。
凍結したVLMに最小限の学習可能なパラメータのみを追加しながら、最適な相互情報のレベルを学習する効率的なフレームワークであるDCLIPを提案する。
論文 参考訳(メタデータ) (2025-02-05T08:20:31Z) - Model Inversion in Split Learning for Personalized LLMs: New Insights from Information Bottleneck Theory [11.83473842859642]
この研究は、パーソナライズされたLLMのための分割学習フレームワークにおいて、モデル反転攻撃を識別する最初のものである。
本稿では,第1部が埋め込み空間に表現を投影する2段階攻撃システムを提案し,第2部は生成モデルを用いて埋め込み空間からテキストを復元する。
論文 参考訳(メタデータ) (2025-01-10T13:47:13Z) - A Middle Path for On-Premises LLM Deployment: Preserving Privacy Without Sacrificing Model Confidentiality [20.646221081945523]
プライバシに敏感なユーザは、自身のインフラストラクチャ(オンプレミス)に大規模な言語モデル(LLM)をデプロイして、プライベートデータの保護とカスタマイズを可能にする必要がある。
小型モデルの従来の研究は、モデルの機密性とカスタマイズのバランスをとるために、ハードウェアがセキュアなデバイス内の出力層のみを確保することを模索してきた。
SOLIDはセキュアな環境下でいくつかのボトム層を確保する新しいデプロイメントフレームワークであり、トレードオフを最適化するための効率的なメトリクスを導入します。
論文 参考訳(メタデータ) (2024-10-15T02:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。