論文の概要: TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2506.04133v1
- Date: Wed, 04 Jun 2025 16:26:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.46381
- Title: TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems
- Title(参考訳): エージェントAIのためのTRiSM: LLMベースのエージェントマルチエージェントシステムにおける信頼、リスク、セキュリティ管理のレビュー
- Authors: Shaina Raza, Ranjan Sapkota, Manoj Karkee, Christos Emmanouilidis,
- Abstract要約: 本稿では,エージェントマルチエージェントシステムにおける信頼・リスク・セキュリティ管理(TRiSM)の構造的分析について述べる。
エージェントAIフレームワークのTRiSMは、ガバナンス、説明可能性、ModelOps、プライバシ/セキュリティの4つの柱を通じて詳細に説明される。
- 参考スコア(独自算出の注目度): 2.462408812529728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agentic AI systems, built on large language models (LLMs) and deployed in multi-agent configurations, are redefining intelligent autonomy, collaboration and decision-making across enterprise and societal domains. This review presents a structured analysis of Trust, Risk, and Security Management (TRiSM) in the context of LLM-based agentic multi-agent systems (AMAS). We begin by examining the conceptual foundations of agentic AI, its architectural differences from traditional AI agents, and the emerging system designs that enable scalable, tool-using autonomy. The TRiSM in the agentic AI framework is then detailed through four pillars governance, explainability, ModelOps, and privacy/security each contextualized for agentic LLMs. We identify unique threat vectors and introduce a comprehensive risk taxonomy for the agentic AI applications, supported by case studies illustrating real-world vulnerabilities. Furthermore, the paper also surveys trust-building mechanisms, transparency and oversight techniques, and state-of-the-art explainability strategies in distributed LLM agent systems. Additionally, metrics for evaluating trust, interpretability, and human-centered performance are reviewed alongside open benchmarking challenges. Security and privacy are addressed through encryption, adversarial defense, and compliance with evolving AI regulations. The paper concludes with a roadmap for responsible agentic AI, proposing research directions to align emerging multi-agent systems with robust TRiSM principles for safe, accountable, and transparent deployment.
- Abstract(参考訳): エージェントAIシステムは、大規模言語モデル(LLM)に基づいて構築され、マルチエージェント構成でデプロイされる。
本稿では,LLMに基づくエージェント・マルチエージェント・システム(AMAS)の文脈におけるトラスト・リスク・セキュリティ・マネジメント(TRiSM)の構造的分析について述べる。
まず、エージェントAIの概念基盤、従来のAIエージェントとのアーキテクチャ上の違い、スケーラブルでツールを使用する自律性を実現する新しいシステム設計について調べる。
エージェントAIフレームワークのTRiSMは、エージェントLLMのコンテキスト化されたガバナンス、説明可能性、ModelOps、プライバシ/セキュリティの4つの柱を通じて詳細化される。
我々は、ユニークな脅威ベクトルを特定し、現実世界の脆弱性を実証するケーススタディによって支援され、エージェントAIアプリケーションに包括的なリスク分類を導入します。
さらに,分散LLMエージェントシステムにおける信頼性構築機構,透明性と監視手法,および最新技術説明可能性戦略についても検討した。
さらに、信頼、解釈可能性、人間中心のパフォーマンスを評価するためのメトリクスは、オープンなベンチマーク課題と共にレビューされる。
セキュリティとプライバシは、暗号化、敵防衛、進化するAI規制への準拠を通じて対処される。
この論文は、責任あるエージェントAIのためのロードマップで締めくくっている。安全で説明責任があり透明なデプロイメントのために、新興のマルチエージェントシステムと堅牢なTRiSM原則を整合させる研究方向を提案する。
関連論文リスト
- LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - An Outlook on the Opportunities and Challenges of Multi-Agent AI Systems [40.53603737069306]
マルチエージェントAIシステム(MAS)は、分散インテリジェンスのための有望なフレームワークを提供する。
本稿は、大規模言語モデル(LLM)の最近の進歩、連合最適化、人間とAIの相互作用から洞察を得て、MASの現在の可能性と課題を体系的に概観する。
論文 参考訳(メタデータ) (2025-05-23T22:05:19Z) - Inherent and emergent liability issues in LLM-based agentic systems: a principal-agent perspective [0.0]
大規模言語モデル(LLM)を利用したエージェントシステムは、徐々に複雑になり、能力も向上している。
エージェントの増加とデプロイメント環境の拡大は,効果的なガバナンスポリシや監視,コントロールプロトコルに対する関心の高まりを招いている。
我々は, LLMエージェントとその拡張システムの委譲利用から生じる潜在的な責任問題について, 主エージェントの観点から分析する。
論文 参考訳(メタデータ) (2025-04-04T08:10:02Z) - A Survey on Trustworthy LLM Agents: Threats and Countermeasures [67.23228612512848]
大規模言語モデル(LLM)とマルチエージェントシステム(MAS)はLLMエコシステムの機能を大幅に拡張した。
本稿では,エージェントの信頼性に関する総合的研究であるTrustAgentフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T08:42:05Z) - Agent-as-a-Judge: Evaluate Agents with Agents [61.33974108405561]
本稿ではエージェント・アズ・ア・ジャッジ(Agent-as-a-Judge)フレームワークを紹介し,エージェント・システムを用いてエージェント・システムの評価を行う。
これはLLM-as-a-Judgeフレームワークの有機的拡張であり、タスク解決プロセス全体の中間フィードバックを可能にするエージェント的特徴を取り入れている。
55のリアルな自動化AI開発タスクのベンチマークであるDevAIを紹介します。
論文 参考訳(メタデータ) (2024-10-14T17:57:02Z) - Large Model Based Agents: State-of-the-Art, Cooperation Paradigms, Security and Privacy, and Future Trends [64.57762280003618]
近い将来、LM駆動の汎用AIエージェントが、生産タスクにおいて不可欠なツールとして機能することが予想される。
本稿では,将来のLMエージェントの自律的協調に関わるシナリオについて検討する。
論文 参考訳(メタデータ) (2024-09-22T14:09:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。