論文の概要: Towards Enforcing Company Policy Adherence in Agentic Workflows
- arxiv url: http://arxiv.org/abs/2507.16459v2
- Date: Mon, 06 Oct 2025 10:07:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 19:16:49.41554
- Title: Towards Enforcing Company Policy Adherence in Agentic Workflows
- Title(参考訳): エージェントワークフローにおける企業政策の整合性向上に向けて
- Authors: Naama Zwerdling, David Boaz, Ella Rabinovich, Guy Uziel, David Amid, Ateret Anaby-Tavor,
- Abstract要約: 大規模言語モデル(LLM)エージェントは、従来のビジネスプロセス自動化に代わる柔軟でスケーラブルな代替手段を約束する。
本研究では,エージェントにおけるビジネスポリシーの遵守を強化するための決定論的,透過的,モジュール的な枠組みを紹介する。
- 参考スコア(独自算出の注目度): 11.054994436863995
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Model (LLM) agents hold promise for a flexible and scalable alternative to traditional business process automation, but struggle to reliably follow complex company policies. In this study we introduce a deterministic, transparent, and modular framework for enforcing business policy adherence in agentic workflows. Our method operates in two phases: (1) an offline buildtime stage that compiles policy documents into verifiable guard code associated with tool use, and (2) a runtime integration where these guards ensure compliance before each agent action. We demonstrate our approach on the challenging $\tau$-bench Airlines domain, showing encouraging preliminary results in policy enforcement, and further outline key challenges for real-world deployments.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは、従来のビジネスプロセス自動化に代わる柔軟でスケーラブルな代替手段を約束するが、複雑な企業のポリシーを確実に従うのに苦労する。
本研究では,エージェントワークフローにおけるビジネスポリシーの遵守を強化するための決定論的,透過的,モジュール的フレームワークを提案する。
本手法は,(1)ポリシー文書をツール使用に関連する検証可能なガードコードにコンパイルするオフラインビルドタイムステージ,(2)各エージェントアクションの前にガードがコンプライアンスを保証するランタイム統合の2段階で動作する。
弊社のアプローチを、挑戦的な$\tau$-bench Airlinesドメインで実証し、政策執行の予備的な結果を示し、さらに現実世界の展開における重要な課題を概説する。
関連論文リスト
- Authenticated Workflows: A Systems Approach to Protecting Agentic AI [0.0]
企業エージェントAIのための,最初の完全信頼層である認証を導入します。
我々は、すべての境界交差において、意図(組織方針を満たす操作)と整合性(操作は暗号的に真である)を強制する。
これにより、決定論的セキュリティ操作が提供され、有効な暗号証明が実行されるか、拒否される。
論文 参考訳(メタデータ) (2026-02-11T03:04:50Z) - FlowSteer: Interactive Agentic Workflow Orchestration via End-to-End Reinforcement Learning [49.369614288007334]
FlowSteerは、エージェントと実行可能なキャンバス環境として軽量なポリシーモデルを採用する、エンドツーエンドの強化学習フレームワークである。
FlowSteerは様々なタスクでベースラインを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2026-02-02T05:30:42Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - Autonomous Agents on Blockchains: Standards, Execution Models, and Trust Boundaries [2.28438857884398]
エージェントAIシステムとパブリックブロックチェーンは、値転送、アクセス制御、検証可能な状態遷移のためのプログラム可能な基板へと進化してきた。
標準で相互運用性があり、セキュアなインターフェースを設計することで、エージェントはオンチェーンの状態を観察し、トランザクションの意図を定式化し、ユーザやプロトコル、組織を受け入れ難いセキュリティ、ガバナンス、経済リスクに晒すことなく実行を承認することができる。
この調査は、3000以上のレコードの最初のプールから317の関連する著作を識別し、体系的な文献レビューを通じてエージェント-ブロックチェーンの相互運用性の新興の展望を体系化する。
論文 参考訳(メタデータ) (2026-01-08T04:29:26Z) - Policy-Conditioned Policies for Multi-Agent Task Solving [53.67744322553693]
本研究では,ポリシーを人間の解釈可能なソースコードとして表現することでギャップを埋めるパラダイムシフトを提案する。
本研究では,Large Language Models (LLM) を近似インタプリタとして利用することにより,学習問題を再構築する。
我々はこのプロセスを,ポリシーコードをテキスト勾配で最適化するアルゴリズムである TextitProgrammatic Iterated Best Response (PIBR) として定式化する。
論文 参考訳(メタデータ) (2025-12-24T07:42:10Z) - Training-Free Policy Violation Detection via Activation-Space Whitening in LLMs [21.5603664964501]
本稿では,政策違反検出をアウト・オブ・ディストリビューション検出問題として扱う,トレーニングフリーで効率的な手法を提案する。
ホワイトニング技術にインスパイアされた線形変換を用いて、モデルの隠れたアクティベーションをデコレーションし、平均と単位の分散をゼロに標準化する。
挑戦的な政策ベンチマークでは、既存のガードレールと微調整された推論モデルの両方を超越して、最先端の結果が得られる。
論文 参考訳(メタデータ) (2025-12-03T17:23:39Z) - VeriGuard: Enhancing LLM Agent Safety via Verified Code Generation [40.594947933580464]
医療などのセンシティブなドメインに自律的なAIエージェントを配置することは、安全性、セキュリティ、プライバシに重大なリスクをもたらす。
LLMをベースとしたエージェントに対して、正式な安全保証を提供する新しいフレームワークであるVeriGuardを紹介する。
論文 参考訳(メタデータ) (2025-10-03T04:11:43Z) - BlockA2A: Towards Secure and Verifiable Agent-to-Agent Interoperability [5.483452240835409]
BlockA2Aはエージェントとエージェントの相互運用性のための統合されたマルチエージェント信頼フレームワークである。
集中的な信頼ボトルネックを排除し、メッセージの信頼性と実行の整合性を確保し、エージェント間のインタラクションにおける説明責任を保証する。
ビザンチンエージェントのフラグング、リアクティブ実行停止、即時許可取り消しなど、リアルタイムメカニズムによる攻撃を中和する。
論文 参考訳(メタデータ) (2025-08-02T11:59:21Z) - Effective Red-Teaming of Policy-Adherent Agents [7.080204863156575]
タスク指向のLLMベースのエージェントは、適格性やキャンセルルールの返金といった厳格なポリシーを持つドメインで、ますます使われています。
本稿では,個人的利益のためにポリシーに忠実なエージェントを活用することを目的とした,敵対的ユーザに焦点を当てた新たな脅威モデルを提案する。
CRAFTは、ポリシーを意識した説得戦略を利用して、顧客サービスシナリオにおいてポリシーに忠実なエージェントを弱体化させるマルチエージェントのレッドチームシステムである。
論文 参考訳(メタデータ) (2025-06-11T10:59:47Z) - On Automating Security Policies with Contemporary LLMs [3.47402794691087]
本稿では、テキスト内学習と検索強化生成(RAG)の革新的組み合わせにより、攻撃緩和ポリシーコンプライアンスを自動化するフレームワークを提案する。
STIXv2 フォーマットと Windows API ドキュメントで公開されている CTI ポリシを用いて実施した実証評価では,RAG ベースラインに比べて精度,リコール,F1 スコアの大幅な向上が示されている。
論文 参考訳(メタデータ) (2025-06-05T09:58:00Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - SOPBench: Evaluating Language Agents at Following Standard Operating Procedures and Constraints [59.645885492637845]
SOPBenchは、各サービス固有のSOPコードプログラムを実行可能な関数の有向グラフに変換する評価パイプラインである。
提案手法では,各サービス固有のSOPコードプログラムを実行可能関数の有向グラフに変換し,自然言語SOP記述に基づいてこれらの関数を呼び出しなければならない。
我々は18の先行モデルを評価し、上位モデルでさえタスクが困難であることを示す。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - DynaSaur: Large Language Agents Beyond Predefined Actions [108.75187263724838]
既存のLLMエージェントシステムは、通常、各ステップで固定セットと事前定義されたセットからアクションを選択する。
動作を動的に生成・構成できるLLMエージェントフレームワークを提案する。
このフレームワークでは、汎用プログラミング言語で書かれたプログラムを生成し実行することで、エージェントが環境と対話する。
論文 参考訳(メタデータ) (2024-11-04T02:08:59Z) - Formal Ethical Obligations in Reinforcement Learning Agents: Verification and Policy Updates [0.0]
設計者は、エージェントがすべきこと、それが実際に起きていることとどのように衝突するか、そして競合を取り除くためにポリシーをどう修正するかを、自動的に判断するツールが必要です。
我々は、設計時にこの推論を可能にするために、新しいデオン論理、期待されるアクト・ユーティタリアンデオン論理を提案する。
報酬レベルで働くアプローチとは異なり、論理レベルで働くことはトレードオフの透明性を高める。
論文 参考訳(メタデータ) (2024-07-31T20:21:15Z) - Code Models are Zero-shot Precondition Reasoners [83.8561159080672]
シーケンシャルな意思決定タスクのために、コード表現を使ってアクションの前提条件を推論します。
本稿では,政策によって予測される行動が前提条件と一致していることを保証する事前条件対応行動サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2023-11-16T06:19:27Z) - Offline Reinforcement Learning with Closed-Form Policy Improvement
Operators [88.54210578912554]
行動制約付きポリシー最適化は、オフライン強化学習に対処するための成功パラダイムであることが示されている。
本稿では,閉形式政策改善演算子を提案する。
我々は、標準的なD4RLベンチマークにおいて、最先端アルゴリズムに対するそれらの効果を実証的に実証した。
論文 参考訳(メタデータ) (2022-11-29T06:29:26Z) - Safety-Constrained Policy Transfer with Successor Features [19.754549649781644]
本稿では,安全制約へのポリシーの移転と遵守を可能にするCMDP(Constrained Markov Decision Process)の定式化を提案する。
我々のアプローチは、Lagrangian の定式化による制約付き設定への一般化された政策改善の新たな拡張に依存している。
シミュレーションドメインでの我々の実験は、我々のアプローチが効果的であることを示し、安全上の制約を考慮に入れた場合、安全でない状態の訪問を少なくし、代替の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-11-10T06:06:36Z) - Planning to Practice: Efficient Online Fine-Tuning by Composing Goals in
Latent Space [76.46113138484947]
汎用ロボットは、現実世界の非構造環境において困難なタスクを完了するために、多様な行動レパートリーを必要とする。
この問題に対処するため、目標条件強化学習は、コマンド上の幅広いタスクの目標に到達可能なポリシーを取得することを目的としている。
本研究では,長期的課題に対する目標条件付き政策を実践的に訓練する手法であるPlanning to Practiceを提案する。
論文 参考訳(メタデータ) (2022-05-17T06:58:17Z) - Learning Goal-oriented Dialogue Policy with Opposite Agent Awareness [116.804536884437]
本稿では,目標指向対話における政策学習のための逆行動認識フレームワークを提案する。
我々は、その行動から相手エージェントの方針を推定し、この推定を用いてターゲットエージェントを対象ポリシーの一部として関連づけて改善する。
論文 参考訳(メタデータ) (2020-04-21T03:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。