論文の概要: From Workflow Automation to Capability Closure: A Formal Framework for Safe and Revenue-Aware Customer Service AI
- arxiv url: http://arxiv.org/abs/2603.15978v1
- Date: Mon, 16 Mar 2026 22:48:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.026742
- Title: From Workflow Automation to Capability Closure: A Formal Framework for Safe and Revenue-Aware Customer Service AI
- Title(参考訳): ワークフロー自動化からキャパビリティクロージャへ - 安全と収益を意識した顧客サービスAIのためのフォーマルなフレームワーク
- Authors: Cosimo Spera, Garima Agrawal, Riccardo De Maria,
- Abstract要約: 2つのエージェントは、安全であると個別に検証され、組み合わせると、どちらも単独では持たない緊急接続依存性によって、禁じられた目標に達する。
このシフトは、現在のプラットフォームが閉鎖されていない安全性のギャップをもたらしている。2つのエージェントが個別に安全であると確認されると、どちらも単独では持たない創発的な結束依存性によって、禁じられた目標に達する。
- 参考スコア(独自算出の注目度): 1.452875650827562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Customer service automation is undergoing a structural transformation. The dominant paradigm is shifting from scripted chatbots and single-agent responders toward networks of specialised AI agents that compose capabilities dynamically across billing, service provision, payments, and fulfilment. This shift introduces a safety gap that no current platform has closed: two agents individually verified as safe can, when combined, reach a forbidden goal through an emergent conjunctive dependency that neither possesses alone.
- Abstract(参考訳): 顧客サービスの自動化は構造的な変革を経ています。
支配的なパラダイムは、スクリプト化されたチャットボットやシングルエージェントのレスポンダから、課金、サービス提供、支払い、フルフィルメントにまたがる機能を動的に構成する専門化されたAIエージェントのネットワークに移行することである。
このシフトは、現在のプラットフォームが閉鎖されていない安全性のギャップをもたらしている。2つのエージェントが個別に安全であると確認されると、どちらも単独では持たない創発的な結束依存性によって、禁じられた目標に達する。
関連論文リスト
- Beyond Context Sharing: A Unified Agent Communication Protocol (ACP) for Secure, Federated, and Autonomous Agent-to-Agent (A2A) Orchestration [0.0]
本稿ではエージェント通信プロトコル(ACP)を紹介する。
ACPはAgent-to-Agentインタラクションのための標準化されたフレームワークを提供する。
ACPは、ゼロトラストのセキュリティ姿勢を維持しながら、エージェント間通信のレイテンシを%削減する。
論文 参考訳(メタデータ) (2026-02-11T17:02:12Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - AdvEvo-MARL: Shaping Internalized Safety through Adversarial Co-Evolution in Multi-Agent Reinforcement Learning [78.5751183537704]
AdvEvo-MARLは、タスクエージェントに安全性を内部化する、共進化型マルチエージェント強化学習フレームワークである。
外部ガードに頼るのではなく、AdvEvo-MARLは攻撃者と防御者を共同で最適化する。
論文 参考訳(メタデータ) (2025-10-02T02:06:30Z) - Using the NANDA Index Architecture in Practice: An Enterprise Perspective [9.707223291705601]
自律型AIエージェントの普及は、従来のWebアーキテクチャから協調的なインテリジェントシステムへのパラダイムシフトを表している。
本稿では,セキュアで信頼性が高く,相互運用可能なAIエージェントエコシステムの基盤要件に対処する包括的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-05T05:27:27Z) - BlockA2A: Towards Secure and Verifiable Agent-to-Agent Interoperability [8.539128225018489]
BlockA2Aはエージェントとエージェントの相互運用性のための統合されたマルチエージェント信頼フレームワークである。
集中的な信頼ボトルネックを排除し、メッセージの信頼性と実行の整合性を確保し、エージェント間のインタラクションにおける説明責任を保証する。
ビザンチンエージェントのフラグング、リアクティブ実行停止、即時許可取り消しなど、リアルタイムメカニズムによる攻撃を中和する。
論文 参考訳(メタデータ) (2025-08-02T11:59:21Z) - Agentic Web: Weaving the Next Web with AI Agents [109.13815627467514]
大規模言語モデル(LLM)を活用したAIエージェントの出現は、エージェントWebに対する重要な転換点である。
このパラダイムでは、エージェントが直接対話して、ユーザに代わって複雑なタスクを計画、コーディネート、実行します。
本稿では,エージェントWebの理解と構築のための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-28T17:58:12Z) - ADA: Automated Moving Target Defense for AI Workloads via Ephemeral Infrastructure-Native Rotation in Kubernetes [0.0]
ADAは、これらのワークロードをインフラストラクチャレベルで継続的に、かつ自動的に回転させることで運用する。
この定期的な管理されたチャーンは攻撃者の仮定を無効にし、潜在的なキルチェーンを妨害する。
AMTDに対するADAの新たなアプローチは、AIサービスに対してより堅牢で、アジャイルで、運用的に効率的なゼロトラストモデルを提供します。
論文 参考訳(メタデータ) (2025-05-27T02:24:45Z) - SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - Authenticated Delegation and Authorized AI Agents [4.679384754914167]
我々は、AIエージェントに対する権限の認証、認証、監査可能な委任のための新しい枠組みを導入する。
フレキシブルな自然言語パーミッションを監査可能なアクセス制御構成に変換するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-16T17:11:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。