論文の概要: REGAL: A Registry-Driven Architecture for Deterministic Grounding of Agentic AI in Enterprise Telemetry
- arxiv url: http://arxiv.org/abs/2603.03018v1
- Date: Tue, 03 Mar 2026 14:13:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.83014
- Title: REGAL: A Registry-Driven Architecture for Deterministic Grounding of Agentic AI in Enterprise Telemetry
- Title(参考訳): REGAL: 企業テレメトリにおけるエージェントAIの決定論的グラウンディングのためのレジストリ駆動アーキテクチャ
- Authors: Yuvraj Agrawal,
- Abstract要約: 大規模言語モデル(LLM)は、エージェント自動化の新しい形態を可能にする。
本稿では,企業テレメトリにおけるエージェントAIシステムの決定論的基盤化のためのレジストリ駆動型アーキテクチャREGALを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Enterprise engineering organizations produce high-volume, heterogeneous telemetry from version control systems, CI/CD pipelines, issue trackers, and observability platforms. Large Language Models (LLMs) enable new forms of agentic automation, but grounding such agents on private telemetry raises three practical challenges: limited model context, locally defined semantic concepts, and evolving metric interfaces. We present REGAL, a registry-driven architecture for deterministic grounding of agentic AI systems in enterprise telemetry. REGAL adopts an explicitly architectural approach: deterministic telemetry computation is treated as a first-class primitive, and LLMs operate over a bounded, version-controlled action space rather than raw event streams. The architecture combines (1) a Medallion ELT pipeline that produces replayable, semantically compressed Gold artifacts, and (2) a registry-driven compilation layer that synthesizes Model Context Protocol (MCP) tools from declarative metric definitions. The registry functions as an "interface-as-code" layer, ensuring alignment between tool specification and execution, mitigating tool drift, and embedding governance policies directly at the semantic boundary. A prototype implementation and case study validate the feasibility of deterministic grounding and illustrate its implications for latency, token efficiency, and operational governance. This work systematizes an architectural pattern for enterprise LLM grounding; it does not propose new learning algorithms, but rather elevates deterministic computation and semantic compilation to first-class design primitives for agentic systems.
- Abstract(参考訳): エンタープライズエンジニアリング組織は、バージョン管理システム、CI/CDパイプライン、イシュートラッカ、可観測プラットフォームから、高ボリュームで異質なテレメトリを作成している。
大規模言語モデル(LLM)は、エージェント自動化の新しい形態を実現するが、そのようなエージェントをプライベートテレメトリに基盤付けることは、モデルコンテキストの制限、局所的に定義されたセマンティック概念、メトリインターフェースの進化という3つの実践的な課題を提起する。
本稿では,企業テレメトリにおけるエージェントAIシステムの決定論的基盤化のためのレジストリ駆動型アーキテクチャREGALを提案する。
決定論的テレメトリ計算は第一級プリミティブとして扱われ、LLMは生のイベントストリームではなく、境界付きバージョン管理されたアクション空間上で動作する。
このアーキテクチャは、(1)再生可能でセマンティックに圧縮された金のアーティファクトを生成するメダリオンETLパイプライン、(2)宣言的メトリック定義からモデルコンテキストプロトコル(MCP)ツールを合成するレジストリ駆動のコンパイル層を組み合わせる。
レジストリは"インターフェイス・アズ・コード"レイヤとして機能し、ツール仕様と実行の整合性を確保し、ツールのドリフトを緩和し、セマンティック境界に直接ガバナンスポリシーを埋め込む。
プロトタイプの実装とケーススタディは、決定論的基盤の実現可能性を検証するとともに、レイテンシ、トークン効率、運用管理にその影響を説明している。
新たな学習アルゴリズムを提案するのではなく、決定論的計算とセマンティックコンパイルをエージェントシステムのための第一級設計プリミティブに高める。
関連論文リスト
- The Auton Agentic AI Framework [5.410458076724158]
人工知能の分野では、ジェネレーティブAIからエージェントAIへの移行が進行中である。
大規模言語モデル(LLM)は構造化されていない出力を生成するが、それらが制御しなければならないバックエンドインフラストラクチャは決定論的でスキーマに適合する入力を必要とする。
本稿では,自律エージェントの作成,作成,管理を行うための原則アーキテクチャであるAuton Agentic AI Frameworkについて述べる。
論文 参考訳(メタデータ) (2026-02-27T06:42:08Z) - Operationalization of Machine Learning with Serverless Architecture: An Industrial Operationalization of Machine Learning with Serverless Architecture: An Industrial Implementation for Harmonized System Code Prediction [0.0]
本稿では、データ取り込み、トレーニング、デプロイメント、監視、再トレーニングからイベント駆動パイプラインとマネージドサービスまで、完全なMLライフサイクルをオーケストレーションするサーバレスMLOpsフレームワークを提案する。
本研究では,グローバル取引において税関当局が使用する標準化コードに,短い非構造化製品記述をマッピングするコンプライアンスクリティカルなタスクである,調和システム(HS)コード予測の産業的実装を通じて,実践的適用性を実証する。
私たちのソリューションは、複数のディープラーニングアーキテクチャを埋め込んだカスタムテキストを使用します。
論文 参考訳(メタデータ) (2026-02-19T05:59:55Z) - A Unified Experimental Architecture for Informative Path Planning: from Simulation to Deployment with GuadalPlanner [69.43049144653882]
本稿では,車種別制御から高レベルの意思決定を分離する統一アーキテクチャを提案する。
提案アーキテクチャは、計画、センシング、車両実行の標準化されたインターフェースを定義するGuaralPlannerを通じて実現されている。
論文 参考訳(メタデータ) (2026-02-11T10:02:31Z) - A Lightweight Modular Framework for Constructing Autonomous Agents Driven by Large Language Models: Design, Implementation, and Applications in AgentForge [1.932555230783329]
LLM駆動の自律エージェントの構築を民主化するために設計された軽量でオープンソースのPythonフレームワーク。
AgentForgeは、(1)正式に定義された入出力契約できめ細かいタスク分解を可能にする構成可能なスキル抽象化、(2)クラウドベースのAPIとローカル推論エンジンのシームレスな切り替えをサポートする統一されたバックエンドインターフェース、(3)エージェントロジックと実装の詳細を分離する宣言型YAMLベースの構成システムである。
論文 参考訳(メタデータ) (2026-01-19T20:33:26Z) - A Generalizable Framework for Building Executable Domain-Specific LLMs under Data Scarcity: Demonstration on Semiconductor TCAD Simulation [20.174394305112198]
低リソース環境下でコンパクトで実行可能なドメイン固有LLMを構築するためのフレームワークを提案する。
半導体コンピュータ支援設計(TCAD)のためのTcadGPTのインスタンス化によるフレームワークの実証
1.5Mの合成QAペアとIR駆動のDPOデータセットを使用して、TcadGPTはSDE実行可能性テストにおいて85.6%のセマンティック精度と80.0%の構文パスレートを達成した。
論文 参考訳(メタデータ) (2026-01-15T07:13:34Z) - AI-NativeBench: An Open-Source White-Box Agentic Benchmark Suite for AI-Native Systems [52.65695508605237]
我々は、Model Context Protocol(MCP)とAgent-to-Agent(A2A)標準に基づいて、アプリケーション中心でホワイトボックスのAI-NativeベンチマークスイートであるAI-NativeBenchを紹介する。
エージェントスパンを分散トレース内の第一級市民として扱うことにより,本手法は,単純な機能以上の工学的特性の粒度解析を可能にする。
この研究は、モデル能力の測定から信頼性の高いAI-Nativeシステムへの移行を導く最初の体系的な証拠を提供する。
論文 参考訳(メタデータ) (2026-01-14T11:32:07Z) - Let It Flow: Agentic Crafting on Rock and Roll, Building the ROME Model within an Open Agentic Learning Ecosystem [90.17610617854247]
本稿では,エージェントモデルの生産パイプラインを最適化する基盤インフラであるエージェント学習エコシステム(ALE)を紹介する。
ALEは、重量最適化のためのトレーニング後のフレームワークであるROLL、軌道生成のためのサンドボックス環境マネージャであるROCK、効率的なコンテキストエンジニアリングのためのエージェントフレームワークであるiFlow CLIの3つのコンポーネントで構成されている。
ROMEはALEが基盤として100万件以上のトラジェクトリをトレーニングしたオープンソースエージェントです。
論文 参考訳(メタデータ) (2025-12-31T14:03:39Z) - Monadic Context Engineering [59.95390010097654]
本稿では,エージェント設計の正式な基盤を提供するために,モナディックコンテキストエンジニアリング(MCE)を紹介する。
我々は、モナドがロバストなコンポジションをどのように実現し、Applicativesが並列実行に原則化された構造を提供し、また、モナドトランスフォーマーがこれらの機能の体系的なコンポジションをどのように可能にしているかを実証する。
この階層化されたアプローチにより、開発者は、単純で独立した検証可能なコンポーネントから、複雑でレジリエントで効率的なAIエージェントを構築することができる。
論文 参考訳(メタデータ) (2025-12-27T01:52:06Z) - Zero-shot 3D Map Generation with LLM Agents: A Dual-Agent Architecture for Procedural Content Generation [8.398818816613806]
ゼロショットPCGパラメータ設定にLLMエージェントを利用する学習自由アーキテクチャを提案する。
我々のシステムはアクターエージェントとCriticエージェントをペアリングし、ツールパラメータを自律的に理由づける反復ワークフローを可能にする。
論文 参考訳(メタデータ) (2025-12-11T10:22:02Z) - Behavior Trees vs Executable Ontologies: a Comparative Analysis of Robot Control Paradigms [51.56484100374058]
ロボット行動のモデリングには,インペラティブ・ビヘイビア・ツリー(BT)と宣言的実行可能オントロジー(EO)の2つのアプローチを比較した。
一方、EOはデータフロールールによって駆動される時間的イベントベースのセマンティックグラフとしてドメインを表現している。
論文 参考訳(メタデータ) (2025-11-19T09:38:01Z) - Rethinking Testing for LLM Applications: Characteristics, Challenges, and a Lightweight Interaction Protocol [83.83217247686402]
大言語モデル(LLM)は、単純なテキストジェネレータから、検索強化、ツール呼び出し、マルチターンインタラクションを統合する複雑なソフトウェアシステムへと進化してきた。
その固有の非決定主義、ダイナミズム、文脈依存は品質保証に根本的な課題をもたらす。
本稿では,LLMアプリケーションを3層アーキテクチャに分解する: textbftextitSystem Shell Layer, textbftextitPrompt Orchestration Layer, textbftextitLLM Inference Core。
論文 参考訳(メタデータ) (2025-08-28T13:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。