論文の概要: GAMA: A General Anonymizing Multi-Agent System for Privacy Preservation Enhanced by Domain Rules and Disproof Method
- arxiv url: http://arxiv.org/abs/2509.10018v1
- Date: Fri, 12 Sep 2025 07:22:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.002013
- Title: GAMA: A General Anonymizing Multi-Agent System for Privacy Preservation Enhanced by Domain Rules and Disproof Method
- Title(参考訳): GAMA:ドメインルールと耐障害性によって強化されたプライバシ保護のための汎用マルチエージェントシステム
- Authors: Hailong Yang, Renhuo Zhao, Guanjin Wang, Zhaohong Deng,
- Abstract要約: GAMA(General Anonymizing Multi-Agent System)
GAMAはエージェントのワークスペースをプライベートスペースとパブリックスペースに分割する。
プライベートスペースでは、エージェントが機密データを処理し、パブリックスペースでは匿名化されたデータのみを使用する。
- 参考スコア(独自算出の注目度): 14.491054279033968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid advancement of Large Language Model (LLM), LLM-based agents exhibit exceptional abilities in understanding and generating natural language, facilitating human-like collaboration and information transmission in LLM-based Multi-Agent System (MAS). High-performance LLMs are often hosted on remote servers in public spaces. When tasks involve privacy data, MAS cannot securely utilize these LLMs without implementing privacy-preserving mechanisms. To address this challenge, we propose a General Anonymizing Multi-Agent system (GAMA), which divides the agents' workspace into private and public spaces and protects privacy through the anonymizing mechanism. In the private space, agents handle sensitive data, while in the public space, only anonymized data is utilized. GAMA incorporates two key modules to mitigate semantic loss caused by anonymization: Domain-Rule-based Knowledge Enhancement (DRKE) and Disproof-based Logic Enhancement (DLE). We evaluate GAMA on two public question-answering datasets: Trivia Creative Writing and Logic Grid Puzzle. The results demonstrate that GAMA has superior performance compared to the state-of-the-art models. To further assess its privacy-preserving capabilities, we designed two new datasets: Knowledge Privacy Preservation and Logic Privacy Preservation. The final results highlight GAMA's exceptional effectiveness in both task processing and privacy preservation.
- Abstract(参考訳): LLM(Large Language Model)の急速な進歩により、LLMベースのエージェントは自然言語の理解と生成に優れた能力を示し、LLMベースのマルチエージェントシステム(Multi-Agent System、MAS)における人間のようなコラボレーションや情報伝達を促進する。
高性能LLMは公共空間内のリモートサーバにホストされることが多い。
タスクがプライバシデータを含む場合、MASはプライバシ保存機構を実装せずにこれらのLCMを安全に利用することはできない。
この課題に対処するために、エージェントのワークスペースをプライベートとパブリックに分割し、匿名化機構を通じてプライバシを保護するGAMA(General Anonymizing Multi-Agent System)を提案する。
プライベートスペースでは、エージェントが機密データを処理し、パブリックスペースでは匿名化されたデータのみを使用する。
GAMAには、匿名化によるセマンティック損失を軽減するために、Domain-Rule-based Knowledge Enhancement (DRKE) と Disproof-based Logic Enhancement (DLE) という2つの重要なモジュールが組み込まれている。
GAMAをTrivia Creative WritingとLogic Grid Puzzleの2つの公開質問応答データセットで評価する。
その結果,GAMAは最先端モデルに比べて優れた性能を示した。
プライバシ保護機能をさらに評価するため、知識プライバシ保護と論理プライバシ保護という2つの新しいデータセットを設計しました。
最終結果は,GAMAのタスク処理とプライバシ保護の両面での異常な効果を浮き彫りにした。
関連論文リスト
- MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - Privacy-Enhancing Paradigms within Federated Multi-Agent Systems [47.76990892943637]
LLMベースのマルチエージェントシステム(MAS)は、複数のエージェントを統合することで複雑な問題を解決するのに非常に効果的であることが証明されている。
本稿では、フェデレーションMASの概念を紹介し、フェデレーションMASと従来のFLの根本的な違いを明らかにする。
1)エージェント間の異種プライバシープロトコル,2)多人数会話の構造的差異,3)動的会話ネットワーク構造などである。
これらの課題に対処するため、我々はEPEAgent(Embedded Privacy-Enhancing Agents)を提案し、これはRetrieval-Augmented GenerationフェーズとRetrieval-Augmented Generationフェーズにシームレスに統合する革新的なソリューションである。
論文 参考訳(メタデータ) (2025-03-11T08:38:45Z) - PRIV-QA: Privacy-Preserving Question Answering for Cloud Large Language Models [10.050972891318324]
本稿では,ユーザと大規模言語モデル間のインタラクションにおいて,プライバシとセンシティブな情報を保護するためのプライバシ保護パイプラインを提案する。
プライバシを開放した最初の質問応答データセットであるSensitiveQAを構築した。
提案手法は,クラウド上でのLCMの応答品質を同時に保ちながら,ユーザ情報の事前確保を目的としたマルチステージ戦略を用いている。
論文 参考訳(メタデータ) (2025-02-19T09:17:07Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
機密情報を含む匿名化は、幅広いアプリケーションにとって不可欠である。
既存の技術は、大規模言語モデルの再識別能力の新たな課題に直面している。
本稿では,プライバシ評価器,ユーティリティ評価器,最適化コンポーネントの3つの重要なコンポーネントで構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Hide and Seek (HaS): A Lightweight Framework for Prompt Privacy
Protection [6.201275002179716]
本稿では,H(ide)" と "S(eek)" の2つのコアプロセスとして,匿名化のためのプライベートエンティティの隠蔽と非匿名化のためのプライベートエンティティの検索を行うHaSフレームワークを紹介する。
本研究では,HaSのプライバシー保護性能を定量的に評価するために,ブラックボックスモデルとホワイトボックスモデルの両方を提案する。
論文 参考訳(メタデータ) (2023-09-06T14:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。