論文の概要: Real-Time Trust Verification for Safe Agentic Actions using TrustBench
- arxiv url: http://arxiv.org/abs/2603.09157v1
- Date: Tue, 10 Mar 2026 03:46:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.012175
- Title: Real-Time Trust Verification for Safe Agentic Actions using TrustBench
- Title(参考訳): TrustBench を用いた安全なエージェント動作のリアルタイム信頼検証
- Authors: Tavishi Sharma, Vinayak Sharma, Pragya Sharma,
- Abstract要約: 複数次元にわたる信頼をベンチマークするデュアルモードフレームワークであるTrustBenchを紹介します。
複数のエージェントタスクにおいて、TrustBenchは有害なアクションを87%削減した。
200ms未満のレイテンシで、TrustBenchは、自律エージェントの実用的なリアルタイム信頼検証を可能にする。
- 参考スコア(独自算出の注目度): 0.4460583138505674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models evolve from conversational assistants to autonomous agents, ensuring trustworthiness requires a fundamental shift from post-hoc evaluation to real-time action verification. Current frameworks like AgentBench evaluate task completion, while TrustLLM and HELM assess output quality after generation. However, none of these prevent harmful actions during agent execution. We present TrustBench, a dual-mode framework that (1) benchmarks trust across multiple dimensions using both traditional metrics and LLM-as-a-Judge evaluations, and (2) provides a toolkit agents invoke before taking actions to verify safety and reliability. Unlike existing approaches, TrustBench intervenes at the critical decision point: after an agent formulates an action but before execution. Domain-specific plugins encode specialized safety requirements for healthcare, finance, and technical domains. Across multiple agentic tasks, TrustBench reduced harmful actions by 87%. Domain-specific plugins outperformed generic verification, achieving 35% greater harm reduction. With sub-200ms latency, TrustBench enables practical real-time trust verification for autonomous agents.
- Abstract(参考訳): 大きな言語モデルが会話アシスタントから自律エージェントへと進化するにつれて、信頼性を確保するためには、ポストホック評価からリアルタイムアクション検証への根本的なシフトが必要である。
AgentBenchのような現在のフレームワークはタスク完了を評価し、TrustLLMとHELMは生成後の出力品質を評価します。
しかし、いずれもエージェント実行中に有害なアクションを予防するものではない。
我々は,(1)従来の指標とLCM-as-a-Judge評価の両方を用いて,複数の次元にわたる信頼度をベンチマークするデュアルモードフレームワークであるTrustBenchを紹介し,(2)安全性と信頼性を検証するために行動を起こす前にツールキットエージェントを起動する。
既存のアプローチとは異なり、TrustBenchは重要な決定ポイントに介入する。
ドメイン固有のプラグインは、医療、金融、技術ドメインの特別な安全要件をエンコードする。
複数のエージェントタスクの中で、TrustBenchは有害なアクションを87%削減した。
ドメイン固有のプラグインは、ジェネリック検証を上回るパフォーマンスを示し、35%の害軽減を実現した。
200ms未満のレイテンシで、TrustBenchは、自律エージェントの実用的なリアルタイム信頼検証を可能にする。
関連論文リスト
- DoVer: Intervention-Driven Auto Debugging for LLM Multi-Agent Systems [48.971606069204825]
DoVerは、大規模言語モデル(LLM)ベースのマルチエージェントシステムのための介入駆動デバッグフレームワークである。
ターゲットの介入を通じて、アクティブな検証によって仮説生成を増強する。
DoVerは失敗試験の18~28%を成功させ、最大16%のマイルストーンを達成し、失敗仮説の30~60%を検証または否定する。
論文 参考訳(メタデータ) (2025-12-07T09:23:48Z) - SecureAgentBench: Benchmarking Secure Code Generation under Realistic Vulnerability Scenarios [17.276786247873613]
SecureAgentBenchは、セキュアなコード生成において、コードエージェントの機能を厳格に評価するために設計された105のコーディングタスクのベンチマークである。
その結果、(i)現在のエージェントがセキュアなコードを生成するのに苦労していることが示され、最高のパフォーマンスのエージェントであるDeepSeek-V3.1がサポートしているSWE-agentも15.2%の正安のソリューションしか達成していない。
論文 参考訳(メタデータ) (2025-09-26T09:18:57Z) - OpenAgentSafety: A Comprehensive Framework for Evaluating Real-World AI Agent Safety [58.201189860217724]
OpenAgentSafetyは,8つの危機リスクカテゴリにまたがるエージェントの動作を評価する包括的なフレームワークである。
従来の作業とは異なり、我々のフレームワークは、Webブラウザ、コード実行環境、ファイルシステム、bashシェル、メッセージングプラットフォームなど、実際のツールと対話するエージェントを評価します。
ルールベースの分析とLSM-as-judgeアセスメントを組み合わせることで、過度な行動と微妙な不安全行動の両方を検出する。
論文 参考訳(メタデータ) (2025-07-08T16:18:54Z) - SAFEFLOW: A Principled Protocol for Trustworthy and Transactional Autonomous Agent Systems [10.393477652794747]
大規模言語モデル(LLM)や視覚言語モデル(VLM)の最近の進歩は、複雑な推論とマルチモーダルツールの使用が可能な強力な自律エージェントを可能にしている。
能力の増大にもかかわらず、今日のエージェントフレームワークは脆弱であり、セキュアな情報フロー、信頼性、マルチエージェント調整のための原則的なメカニズムが欠如している。
SAFEFLOWは信頼性の高いLDM/VLMベースのエージェントを構築するための新しいプロトコルレベルフレームワークである。
論文 参考訳(メタデータ) (2025-06-09T09:04:37Z) - Attention Knows Whom to Trust: Attention-based Trust Management for LLM Multi-Agent Systems [52.57826440085856]
LLM-MAS(Large Language Model-based Multi-Agent Systems)は、複雑なタスクを解く上で強力な能力を示すが、エージェントが信頼性の低いメッセージを受け取ると弱いままである。
LLMエージェントは、信頼性を評価することなく、すべての受信メッセージを平等に扱う。
本稿では,メッセージの信頼度を評価するための軽量な注意ベース手法であるAttention Trust Score (A-Trust)を提案する。
論文 参考訳(メタデータ) (2025-06-03T07:32:57Z) - Dissecting Adversarial Robustness of Multimodal LM Agents [70.2077308846307]
我々は、VisualWebArena上に現実的な脅威モデルを用いて、200の敵タスクと評価スクリプトを手動で作成する。
我々は,クロボックスフロンティアLMを用いた最新のエージェントを,リフレクションやツリーサーチを行うエージェントを含む,壊すことに成功している。
AREを使用して、新しいコンポーネントの追加に伴うロバスト性の変化を厳格に評価しています。
論文 参考訳(メタデータ) (2024-06-18T17:32:48Z) - Bayesian Methods for Trust in Collaborative Multi-Agent Autonomy [11.246557832016238]
安全クリティカルで競争の激しい環境では、敵は多数のエージェントに侵入し、妥協することがある。
我々は、この妥協されたエージェント脅威モデルの下で、アートマルチターゲット追跡アルゴリズムの状態を解析する。
階層的ベイズ更新を用いた信頼度推定フレームワークを設計する。
論文 参考訳(メタデータ) (2024-03-25T17:17:35Z) - Malicious Agent Detection for Robust Multi-Agent Collaborative Perception [52.261231738242266]
多エージェント協調(MAC)知覚は、単エージェント認識よりも敵攻撃に対して脆弱である。
MAC知覚に特異的な反応防御であるMADE(Malicious Agent Detection)を提案する。
我々は、ベンチマーク3DデータセットV2X-simとリアルタイムデータセットDAIR-V2Xで包括的な評価を行う。
論文 参考訳(メタデータ) (2023-10-18T11:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。