論文の概要: GAMA: A General Anonymizing Multi-Agent System for Privacy Preservation Enhanced by Domain Rules and Disproof Mechanism
- arxiv url: http://arxiv.org/abs/2509.10018v2
- Date: Sat, 04 Oct 2025 22:46:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:58.533993
- Title: GAMA: A General Anonymizing Multi-Agent System for Privacy Preservation Enhanced by Domain Rules and Disproof Mechanism
- Title(参考訳): GAMA:ドメインルールと防犯機構によって強化されたプライバシ保護のための汎用マルチエージェントシステム
- Authors: Hailong Yang, Renhuo Zhao, Guanjin Wang, Zhaohong Deng,
- Abstract要約: GAMA(General Anonymizing Multi-Agent System)
GAMAはエージェントのワークスペースをプライベートとパブリックに分割し、構造化された匿名化機構を通じてプライバシーを確保する。
GAMAを2つの一般的な質問応答データセット、公開プライバシーリークベンチマーク、およびプライバシに関連する2つのカスタマイズされた質問応答データセットで評価する。
- 参考スコア(独自算出の注目度): 14.491054279033968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid advancement of Large Language Models (LLMs), LLM-based agents exhibit exceptional abilities in understanding and generating natural language, enabling human-like collaboration and information transmission in LLM-based Multi-Agent Systems (MAS). High-performance LLMs are often hosted on web servers in public cloud environments. When tasks involve private data, MAS cannot securely utilize these LLMs without implementing the agentic privacy-preserving mechanism. To address this challenge, we propose a General Anonymizing Multi-Agent System (GAMA), which divides the agents' workspace into private and public spaces, ensuring privacy through a structured anonymization mechanism. In the private space, agents handle sensitive data, while in the public web space, only anonymized data is utilized. GAMA incorporates two key modules to mitigate semantic loss caused by anonymization: Domain-Rule-based Knowledge Enhancement (DRKE) and Disproof-based Logic Enhancement (DLE). We evaluate GAMA on two general question-answering datasets, a public privacy leakage benchmark, and two customized question-answering datasets related to privacy. The results demonstrate that GAMA outperforms existing baselines on the evaluated datasets in terms of both task accuracy and privacy preservation metrics.
- Abstract(参考訳): LLM(Large Language Models)の急速な進歩により、LLMベースのエージェントは自然言語の理解と生成に優れた能力を示し、LLMベースのマルチエージェントシステム(MAS)における人間のようなコラボレーションと情報伝達を可能にした。
高性能なLDMは、しばしばパブリッククラウド環境のWebサーバにホストされる。
タスクがプライベートデータを含む場合、MASはエージェントプライバシ保存機構を実装することなく、これらのLCMを安全に利用することはできない。
この課題に対処するために、エージェントのワークスペースをプライベートとパブリックに分割し、構造化された匿名化機構を通じてプライバシを確保するGAMA(General Anonymizing Multi-Agent System)を提案する。
プライベートスペースでは、エージェントが機密データを処理し、パブリックウェブ空間では匿名化されたデータのみを使用する。
GAMAには、匿名化によるセマンティック損失を軽減するために、Domain-Rule-based Knowledge Enhancement (DRKE) と Disproof-based Logic Enhancement (DLE) という2つの重要なモジュールが組み込まれている。
GAMAを2つの一般的な質問応答データセット、公開プライバシーリークベンチマーク、およびプライバシに関連する2つのカスタマイズされた質問応答データセットで評価する。
その結果、GAMAはタスク精度とプライバシ保護の指標の両方の観点から、評価データセットの既存のベースラインを上回ります。
関連論文リスト
- MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - Privacy-Enhancing Paradigms within Federated Multi-Agent Systems [47.76990892943637]
LLMベースのマルチエージェントシステム(MAS)は、複数のエージェントを統合することで複雑な問題を解決するのに非常に効果的であることが証明されている。
本稿では、フェデレーションMASの概念を紹介し、フェデレーションMASと従来のFLの根本的な違いを明らかにする。
1)エージェント間の異種プライバシープロトコル,2)多人数会話の構造的差異,3)動的会話ネットワーク構造などである。
これらの課題に対処するため、我々はEPEAgent(Embedded Privacy-Enhancing Agents)を提案し、これはRetrieval-Augmented GenerationフェーズとRetrieval-Augmented Generationフェーズにシームレスに統合する革新的なソリューションである。
論文 参考訳(メタデータ) (2025-03-11T08:38:45Z) - PRIV-QA: Privacy-Preserving Question Answering for Cloud Large Language Models [10.050972891318324]
本稿では,ユーザと大規模言語モデル間のインタラクションにおいて,プライバシとセンシティブな情報を保護するためのプライバシ保護パイプラインを提案する。
プライバシを開放した最初の質問応答データセットであるSensitiveQAを構築した。
提案手法は,クラウド上でのLCMの応答品質を同時に保ちながら,ユーザ情報の事前確保を目的としたマルチステージ戦略を用いている。
論文 参考訳(メタデータ) (2025-02-19T09:17:07Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
機密情報を含む匿名化は、幅広いアプリケーションにとって不可欠である。
既存の技術は、大規模言語モデルの再識別能力の新たな課題に直面している。
本稿では,プライバシ評価器,ユーティリティ評価器,最適化コンポーネントの3つの重要なコンポーネントで構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Hide and Seek (HaS): A Lightweight Framework for Prompt Privacy
Protection [6.201275002179716]
本稿では,H(ide)" と "S(eek)" の2つのコアプロセスとして,匿名化のためのプライベートエンティティの隠蔽と非匿名化のためのプライベートエンティティの検索を行うHaSフレームワークを紹介する。
本研究では,HaSのプライバシー保護性能を定量的に評価するために,ブラックボックスモデルとホワイトボックスモデルの両方を提案する。
論文 参考訳(メタデータ) (2023-09-06T14:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。