論文の概要: AgentCrypt: Advancing Privacy and (Secure) Computation in AI Agent Collaboration
- arxiv url: http://arxiv.org/abs/2512.08104v1
- Date: Mon, 08 Dec 2025 23:20:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.754406
- Title: AgentCrypt: Advancing Privacy and (Secure) Computation in AI Agent Collaboration
- Title(参考訳): AgentCrypt: AIエージェントコラボレーションにおけるプライバシと(セキュアな)計算の強化
- Authors: Harish Karthikeyan, Yue Guo, Leo de Castro, Antigoni Polychroniadou, Leo Ardon, Udari Madhushani Sehwag, Sumitra Ganesh, Manuela Veloso,
- Abstract要約: AgentCryptは、きめ細かい暗号化されたエージェント通信のためのフレームワークである。
多様なインタラクションのプライバシを保証し、他のアクセス不可能なデータに対する計算を可能にする。
LanggraphとGoogle ADKを使って実装し、テストしました。
- 参考スコア(独自算出の注目度): 23.22266919684932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI agents increasingly operate in real-world, multi-agent environments, ensuring reliable and context-aware privacy in agent communication is critical, especially to comply with evolving regulatory requirements. Traditional access controls are insufficient, as privacy risks often arise after access is granted; agents may use information in ways that compromise privacy, such as messaging humans, sharing context with other agents, making tool calls, persisting data, or generating derived private information. Existing approaches often treat privacy as a binary constraint, whether data is shareable or not, overlooking nuanced, role-specific, and computation-dependent privacy needs essential for regulatory compliance. Agents, including those based on large language models, are inherently probabilistic and heuristic. There is no formal guarantee of how an agent will behave for any query, making them ill-suited for operations critical to security. To address this, we introduce AgentCrypt, a four-tiered framework for fine-grained, encrypted agent communication that adds a protection layer atop any AI agent platform. AgentCrypt spans unrestricted data exchange (Level 1) to fully encrypted computation using techniques such as homomorphic encryption (Level 4). Crucially, it guarantees the privacy of tagged data is always maintained, prioritizing privacy above correctness. AgentCrypt ensures privacy across diverse interactions and enables computation on otherwise inaccessible data, overcoming barriers such as data silos. We implemented and tested it with Langgraph and Google ADK, demonstrating versatility across platforms. We also introduce a benchmark dataset simulating privacy-critical tasks at all privacy levels, enabling systematic evaluation and fostering the development of regulatable machine learning systems for secure agent communication and computation.
- Abstract(参考訳): AIエージェントが現実のマルチエージェント環境でますます運用されるようになるにつれ、エージェント通信における信頼性とコンテキスト対応のプライバシの確保は、特に規制要件の進化に対応するために重要である。
エージェントは、人間のメッセージング、他のエージェントとのコンテキスト共有、ツールコールの作成、データの永続化、あるいは派生したプライベート情報の生成など、プライバシーを侵害する方法で情報を使用することができる。
既存のアプローチでは、データが共有可能かどうかに関わらず、プライバシをバイナリ制約として扱うことが多い。
大規模言語モデルに基づくエージェントを含むエージェントは、本質的に確率的かつヒューリスティックである。
クエリに対してエージェントがどのように振る舞うかは正式な保証はなく、セキュリティにクリティカルな操作には不適当である。
これを解決するために、任意のAIエージェントプラットフォーム上に保護層を追加する、きめ細かい暗号化されたエージェント通信のための4層フレームワークであるAgenCryptを紹介します。
AgentCryptは、制限のないデータ交換(Level 1)を、同型暗号化(Level 4)のような技術を用いて完全に暗号化された計算に分散する。
重要なのは、タグ付けされたデータのプライバシが常に維持されることを保証することだ。
AgentCryptは、さまざまなインタラクションのプライバシを保証すると同時に、アクセス不能なデータに対する計算を可能にし、データサイロなどの障壁を克服する。
LanggraphとGoogle ADKを使って実装し、テストしました。
また、すべてのプライバシレベルにおいてプライバシクリティカルなタスクをシミュレートするベンチマークデータセットを導入し、セキュアなエージェント通信と計算のための拡張可能な機械学習システムの開発を体系的に評価し、促進する。
関連論文リスト
- AudAgent: Automated Auditing of Privacy Policy Compliance in AI Agents [3.802907024025868]
AudAgentは、AIエージェントのデータプラクティスをリアルタイムで監視するビジュアルフレームワークである。
AudAgentは、リアルタイムに潜在的なプライバシーポリシー違反を効果的に識別する。
論文 参考訳(メタデータ) (2025-11-03T17:32:08Z) - MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - Can One Safety Loop Guard Them All? Agentic Guard Rails for Federated Computing [0.0]
我々は,フェデレートコンピューティングのプライバシ保護のための新しいフレームワークであるGuardian-FCを提案する。
多様なプライバシー保護機構にまたがって安全対策を統一する。
本稿では,バックエンドに依存しない安全性を示す定性的なシナリオと,検証のための形式的モデル基盤を提案する。
論文 参考訳(メタデータ) (2025-06-24T20:39:49Z) - Encrypted Federated Search Using Homomorphic Encryption [0.0]
本稿では、法執行機関が暗号化された犯罪データベース上でクエリを実行できるプライバシー保護フェデレーション検索システムを提案する。
ここでの重要なイノベーションは、データの復号化なしに、分散データベース間で暗号化されたクエリを実行できることだ。
論文 参考訳(メタデータ) (2025-05-05T07:03:30Z) - AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [66.29263282311258]
我々は、AIウェブナビゲーションエージェントがデータ最小化のプライバシー原則に従うかどうかを測定する新しいベンチマークAgentDAMを紹介する。
我々のベンチマークは、現実的なWebインタラクションシナリオをエンドツーエンドでシミュレートし、既存のWebナビゲーションエージェントに適応する。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Air Gap: Protecting Privacy-Conscious Conversational Agents [44.04662124191715]
敵のサードパーティアプリがインタラクションのコンテキストを操作して,LDMベースのエージェントを騙して,そのタスクに関係のない個人情報を明らかにする,新たな脅威モデルを導入する。
本研究では,特定のタスクに必要なデータのみへのアクセスを制限することで,意図しないデータ漏洩を防止するために設計されたプライバシ意識エージェントであるAirGapAgentを紹介する。
論文 参考訳(メタデータ) (2024-05-08T16:12:45Z) - Mitigating Leakage from Data Dependent Communications in Decentralized
Computing using Differential Privacy [1.911678487931003]
本稿では,ユーザ側分散計算における通信データ依存性を制御する汎用実行モデルを提案する。
私たちの公式なプライバシー保証は、シャッフルによるプライバシーの増幅に関する最近の結果を活用し、拡張します。
論文 参考訳(メタデータ) (2021-12-23T08:30:17Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。