論文の概要: TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2506.04133v2
- Date: Sat, 28 Jun 2025 20:26:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 15:08:39.544304
- Title: TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems
- Title(参考訳): エージェントAIのためのTRiSM: LLMベースのエージェントマルチエージェントシステムにおける信頼、リスク、セキュリティ管理のレビュー
- Authors: Shaina Raza, Ranjan Sapkota, Manoj Karkee, Christos Emmanouilidis,
- Abstract要約: 本総説では, LLMに基づくエージェントマルチエージェントシステム (AMAS) の文脈における, textbfTrust, Risk, and Security Management (TRiSM) の構造解析について述べる。
まず、エージェントAIの概念的基礎を調べ、従来のAIエージェントとアーキテクチャ的区別を強調します。
次に、ガバナンス、説明可能性、モデルOps、プライバシ/セキュリティの4つの主要な柱を中心に構成された、エージェントAIのためのAI TRiSMフレームワークを適応して拡張します。
- 参考スコア(独自算出の注目度): 2.462408812529728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agentic AI systems, built upon large language models (LLMs) and deployed in multi-agent configurations, are redefining intelligence, autonomy, collaboration, and decision-making across enterprise and societal domains. This review presents a structured analysis of \textbf{Trust, Risk, and Security Management (TRiSM)} in the context of LLM-based Agentic Multi-Agent Systems (AMAS). We begin by examining the conceptual foundations of Agentic AI and highlight its architectural distinctions from traditional AI agents. We then adapt and extend the AI TRiSM framework for Agentic AI, structured around four key pillars: Governance, Explainability, ModelOps, and Privacy/Security , each contextualized to the challenges of multi-agent LLM systems. A novel risk taxonomy is proposed to capture the unique threats and vulnerabilities of Agentic AI, ranging from coordination failures to prompt-based adversarial manipulation. To support practical assessment in Agentic AI works, we introduce two novel metrics: the Component Synergy Score (CSS), which quantifies the quality of inter-agent collaboration, and the Tool Utilization Efficacy (TUE), which evaluates the efficiency of tool use within agent workflows. We further discuss strategies for improving explainability in Agentic AI , as well as approaches to enhancing security and privacy through encryption, adversarial robustness, and regulatory compliance. The review concludes with a research roadmap for the responsible development and deployment of Agentic AI, outlining critical directions to align emerging systems with TRiSM principles for safe, transparent, and accountable operation.
- Abstract(参考訳): エージェントAIシステムは、大規模言語モデル(LLM)に基づいて構築され、マルチエージェント構成でデプロイされる。
本稿では, LLM に基づくエージェントマルチエージェントシステム (AMAS) の文脈における TRiSM (textbf{Trust, Risk, and Security Management) の構造解析について述べる。
まず、エージェントAIの概念的基礎を調べ、従来のAIエージェントとアーキテクチャ的区別を強調します。
次に、ガバナンス、説明可能性、モデルOps、プライバシ/セキュリティの4つの主要な柱を中心に構成されたエージェントAIのためのAI TRiSMフレームワークを適応し、拡張します。
エージェントAIのユニークな脅威と脆弱性を捉えるために、新しいリスク分類法が提案されている。
エージェントAIの実践的評価を支援するために,エージェント間コラボレーションの質を定量化するCSS(Component Synergy Score)と,エージェントワークフローにおけるツール使用効率を評価するTUE(Tool utilization Efficacy)の2つの新しい指標を紹介した。
さらに、エージェントAIにおける説明可能性を改善するための戦略や、暗号化、敵対的堅牢性、規制遵守を通じてセキュリティとプライバシを強化するアプローチについても論じる。
レビューは、エージェントAIの責任ある開発と展開に関する研究ロードマップで締めくくられ、安全で透明で説明責任のある運用のために、新興システムとTRiSMの原則を整合させる重要な方向性を概説している。
関連論文リスト
- LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - An Outlook on the Opportunities and Challenges of Multi-Agent AI Systems [40.53603737069306]
マルチエージェントAIシステム(MAS)は、分散インテリジェンスのための有望なフレームワークを提供する。
本稿は、大規模言語モデル(LLM)の最近の進歩、連合最適化、人間とAIの相互作用から洞察を得て、MASの現在の可能性と課題を体系的に概観する。
論文 参考訳(メタデータ) (2025-05-23T22:05:19Z) - Inherent and emergent liability issues in LLM-based agentic systems: a principal-agent perspective [0.0]
大規模言語モデル(LLM)を利用したエージェントシステムは、徐々に複雑になり、能力も向上している。
エージェントの増加とデプロイメント環境の拡大は,効果的なガバナンスポリシや監視,コントロールプロトコルに対する関心の高まりを招いている。
我々は, LLMエージェントとその拡張システムの委譲利用から生じる潜在的な責任問題について, 主エージェントの観点から分析する。
論文 参考訳(メタデータ) (2025-04-04T08:10:02Z) - A Survey on Trustworthy LLM Agents: Threats and Countermeasures [67.23228612512848]
大規模言語モデル(LLM)とマルチエージェントシステム(MAS)はLLMエコシステムの機能を大幅に拡張した。
本稿では,エージェントの信頼性に関する総合的研究であるTrustAgentフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T08:42:05Z) - Agent-as-a-Judge: Evaluate Agents with Agents [61.33974108405561]
本稿ではエージェント・アズ・ア・ジャッジ(Agent-as-a-Judge)フレームワークを紹介し,エージェント・システムを用いてエージェント・システムの評価を行う。
これはLLM-as-a-Judgeフレームワークの有機的拡張であり、タスク解決プロセス全体の中間フィードバックを可能にするエージェント的特徴を取り入れている。
55のリアルな自動化AI開発タスクのベンチマークであるDevAIを紹介します。
論文 参考訳(メタデータ) (2024-10-14T17:57:02Z) - Large Model Based Agents: State-of-the-Art, Cooperation Paradigms, Security and Privacy, and Future Trends [64.57762280003618]
近い将来、LM駆動の汎用AIエージェントが、生産タスクにおいて不可欠なツールとして機能することが予想される。
本稿では,将来のLMエージェントの自律的協調に関わるシナリオについて検討する。
論文 参考訳(メタデータ) (2024-09-22T14:09:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。