論文の概要: Semantic Caching and Intent-Driven Context Optimization for Multi-Agent Natural Language to Code Systems
- arxiv url: http://arxiv.org/abs/2601.11687v1
- Date: Fri, 16 Jan 2026 11:32:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.284056
- Title: Semantic Caching and Intent-Driven Context Optimization for Multi-Agent Natural Language to Code Systems
- Title(参考訳): 多言語自然言語からコードシステムへのセマンティックキャッシングとインテント駆動コンテキスト最適化
- Authors: Harmohit Singh,
- Abstract要約: 本稿では,自然言語クエリを構造化データ解析のための実行可能なPythonコードに変換するために,実運用最適化マルチエージェントシステムを提案する。
高価なフロンティアモデルに依存するシステムとは異なり、我々のアプローチは3つの重要な革新を通じて高い精度とコスト効率を達成する。
本稿では,LLM ベースの分析システムを大規模に展開する上での実践的考察について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a production-optimized multi-agent system designed to translate natural language queries into executable Python code for structured data analytics. Unlike systems that rely on expensive frontier models, our approach achieves high accuracy and cost efficiency through three key innovations: (1) a semantic caching system with LLM-based equivalence detection and structured adaptation hints that provides cache hit rates of 67% on production queries; (2) a dual-threshold decision mechanism that separates exact-match retrieval from reference-guided generation; and (3) an intent-driven dynamic prompt assembly system that reduces token consumption by 40-60% through table-aware context filtering. The system has been deployed in production for enterprise inventory management, processing over 10,000 queries with an average latency of 8.2 seconds and 94.3% semantic accuracy. We describe the architecture, present empirical results from production deployment, and discuss practical considerations for deploying LLM-based analytics systems at scale.
- Abstract(参考訳): 本稿では,自然言語クエリを構造化データ解析のための実行可能なPythonコードに変換するために,実運用最適化マルチエージェントシステムを提案する。
高価なフロンティアモデルに依存するシステムとは違って,本手法では,(1)LLMに基づく等価性検出機能を備えたセマンティックキャッシングシステムと,(67%のキャッシュヒット率を提供する構造化適応ヒント,(2)参照誘導世代から正確なマッチ検索を分離するデュアルスレッド決定機構,(3)テーブル認識コンテキストフィルタリングによるトークン消費を40~60%削減するインテント駆動動的プロンプトアセンブリシステムという3つの重要なイノベーションを通じて,高精度でコスト効率の高いシステムを実現している。
システムは企業在庫管理のために本番環境にデプロイされ、平均遅延8.2秒と94.3%のセマンティック精度で1万以上のクエリを処理する。
本稿では,LLM ベースの分析システムを大規模に展開する上での実践的考察について述べる。
関連論文リスト
- Cross-Lingual Prompt Steerability: Towards Accurate and Robust LLM Behavior across Languages [61.18573330164572]
システムプロンプトは、推論時に大きな言語モデル(LLM)を条件付けするための軽量で強力なメカニズムを提供する。
本稿では, 異なるシステムが, 正確な, 頑健な言語間行動に対して, ステアモデルをどのように促すかを包括的に検討する。
論文 参考訳(メタデータ) (2025-12-02T14:54:54Z) - Beyond Relational: Semantic-Aware Multi-Modal Analytics with LLM-Native Query Optimization [35.60979104539273]
Nirvanaは、プログラム可能なセマンティック演算子を組み込んだマルチモーダルデータ分析フレームワークである。
Nirvanaはエンドツーエンドのランタイムを10%から85%削減し、システム処理コストを平均で76%削減できる。
論文 参考訳(メタデータ) (2025-11-25T01:41:49Z) - RAG-Driven Data Quality Governance for Enterprise ERP Systems [0.0]
LLMによるクエリ生成と自動データクリーニングを組み合わせたエンドツーエンドパイプラインを提案する。
システムは6ヶ月で24万人の従業員の記録を管理するプロダクションシステムにデプロイされる。
このモジュラーアーキテクチャは、AIネイティブなエンタープライズデータガバナンスのための再現可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-11-18T12:08:44Z) - AutoMaAS: Self-Evolving Multi-Agent Architecture Search for Large Language Models [4.720605681761044]
AutoMaASは自己進化型マルチエージェントアーキテクチャ検索フレームワークである。
ニューラルネットワーク検索の原則を使用して、最適なエージェント構成を自動的に検出する。
1.0-7.1%の性能向上を実現し、最先端の手法と比較して推論コストを3~5%削減する。
論文 参考訳(メタデータ) (2025-10-03T01:57:07Z) - Leveraging Generative Models for Real-Time Query-Driven Text Summarization in Large-Scale Web Search [54.987957691350665]
クエリ駆動テキスト要約(QDTS)は、与えられたクエリに基づいてテキスト文書から簡潔で情報的な要約を生成することを目的としている。
従来の抽出的要約モデルは、主にランク付け候補の要約セグメントに基づいており、産業応用において支配的なアプローチとなっている。
産業Web検索におけるリアルタイムQDTSに対処するための生成モデルの適用を開拓するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-28T08:51:51Z) - RCR-Router: Efficient Role-Aware Context Routing for Multi-Agent LLM Systems with Structured Memory [57.449129198822476]
RCRは、マルチエージェント大言語モデル(LLM)システムのためのロールアウェアコンテキストルーティングフレームワークである。
役割とタスクステージに基づいて、各エージェントに対して意味的に関連するメモリサブセットを動的に選択する。
軽量スコアリングポリシは、メモリ選択をガイドし、エージェント出力を共有メモリストアに統合する。
論文 参考訳(メタデータ) (2025-08-06T21:59:34Z) - QUPID: Quantified Understanding for Enhanced Performance, Insights, and Decisions in Korean Search Engines [4.94507535566914]
異なるアーキテクチャで2つの異なる小言語モデル(SLM)を組み合わせることで、関連性評価において大きな言語モデル(LLM)より優れていることを示す。
我々のアプローチ - QUPID -- は、生成SLMと埋め込みSLMを統合し、高い関連性判定精度を実現する。
論文 参考訳(メタデータ) (2025-05-12T08:35:09Z) - ZeroLM: Data-Free Transformer Architecture Search for Language Models [54.83882149157548]
現在の自動プロキシ発見アプローチは、検索時間の拡張、データの過度なオーバーフィットへの感受性、構造的な複雑さに悩まされている。
本稿では,効率的な重み統計によるモデルキャパシティの定量化を目的とした,新しいゼロコストプロキシ手法を提案する。
本評価は,FlexiBERT ベンチマークで Spearman's rho 0.76 と Kendall's tau 0.53 を達成し,このアプローチの優位性を示すものである。
論文 参考訳(メタデータ) (2025-03-24T13:11:22Z) - Dspy-based Neural-Symbolic Pipeline to Enhance Spatial Reasoning in LLMs [29.735465300269993]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な能力を示してきたが、しばしば空間的推論に苦しむ。
本稿では LLM と Answer Set Programming (ASP) の反復的フィードバックにより LLM の空間推論能力を高める新しいニューラルシンボリックフレームワークを提案する。
我々は、StepGameとSparQAという2つのベンチマークデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2024-11-27T18:04:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。