論文の概要: PARCER as an Operational Contract to Reduce Variance, Cost, and Risk in LLM Systems
- arxiv url: http://arxiv.org/abs/2603.00856v1
- Date: Sun, 01 Mar 2026 01:11:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.387105
- Title: PARCER as an Operational Contract to Reduce Variance, Cost, and Risk in LLM Systems
- Title(参考訳): LLMシステムの分散・コスト・リスク低減のための運用契約としてのPARCER
- Authors: Elzo Brito dos Santos Filho,
- Abstract要約: 本稿では,これらの制限に対する工学的対応としてPARCERを提案する。
このフレームワークはYAMLの宣言的な"運用契約"として機能し、インタラクションをバージョン付きおよび実行可能なアーティファクトに変換する。
本研究の目的は、PARCERの概念的および技術的アーキテクチャを提示することであり、シンプルな「プロンプトエンジニアリング」から「統制可能なガバナンスを伴うコンテキストエンジニアリング」へ、必要な移行として位置づけることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Systems based on Large Language Models (LLMs) have become formidable tools for automating research and software production. However, their governance remains a challenge when technical requirements demand absolute consistency, auditability, and predictable control over cost and latency. Recent literature highlights two phenomena that aggravate this scenario: the stochastic variance inherent in the model's judgment (often treated as "systemic noise") and the substantial degradation of context utilization in long inputs, with critical losses when decisive information is diluted in the middle of the prompt. This article proposes PARCER as an engineering response to these limitations. The framework acts as a declarative "operational contract" in YAML, transforming unstructured interactions into versioned and executable artifacts. PARCER imposes strict governance structured into seven operational phases, introducing decision hygiene practices inspired by legal judgments to mitigate noise, adaptive token budgeting, formalized recovery routes (fallbacks) for context preservation, and systemic observability via OpenTelemetry. The objective of this work is to present the conceptual and technical architecture of PARCER, positioning it as a necessary transition from simple "prompt engineering" to "context engineering with governable governance".
- Abstract(参考訳): LLM(Large Language Models)に基づくシステムは、研究とソフトウェア生産を自動化するための強力なツールとなっている。
しかし、技術的要求が絶対的な一貫性、監査可能性、コストとレイテンシの予測可能な制御を要求する場合、彼らのガバナンスは依然として課題である。
近年の文献では、モデルの判断に固有の確率的差異(しばしば「システムノイズ」として扱われる)と、長い入力における文脈利用の相当な劣化と、決定情報がインプットの中央で希薄になった場合の重大な損失という2つの現象が強調されている。
本稿では,これらの制限に対する工学的対応としてPARCERを提案する。
このフレームワークはYAMLの宣言的な"運用契約"として機能し、非構造化のインタラクションをバージョン管理および実行可能なアーティファクトに変換する。
PARCERは、ノイズを緩和するための法的判断、適応トークン予算、コンテキスト保存のための正式な回復ルート(フォールバック)、OpenTelemetryによるシステム的可観測性といった、7つの運用フェーズに構造化された厳格なガバナンスを導入している。
この研究の目的は、PARCERの概念的および技術的なアーキテクチャを提示することであり、シンプルな「プロンプトエンジニアリング」から「統制可能なガバナンスを伴うコンテキストエンジニアリング」へ、必要な移行として位置づけることである。
関連論文リスト
- ReIn: Conversational Error Recovery with Reasoning Inception [43.5498321001366]
本研究は,誤対話コンテキストの正確な診断と適切な回復計画の実行を必要とする誤り回復に焦点を当てる。
エージェントの意思決定プロセスに初期推論を組み込むテスト時間介入手法であるReasoning Inception (ReIn)を提案する。
ユーザ目標の達成を阻害する会話障害シナリオをシステマティックにシミュレートすることでReInを評価する。
論文 参考訳(メタデータ) (2026-02-19T02:37:29Z) - Laser: Governing Long-Horizon Agentic Search via Structured Protocol and Context Register [38.329346729947304]
本稿では,エージェント検索の安定化とスケーリングのためのフレームワークであるLaserを紹介する。
レーザーはエージェントの振る舞いを計画、タスク解決、振り返りの3つの空間に整理する。
レーザーは、プロンプトオンリーと微調整設定の両方で既存のエージェント検索ベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2025-12-23T15:53:33Z) - The Gatekeeper Knows Enough [0.0]
Gatekeeper Protocolは、エージェント・システム間のインタラクションを管理するドメインに依存しないフレームワークである。
提案手法は,エージェントの信頼性を著しく向上し,トークン消費を最小化することで計算効率を向上し,複雑なシステムとのスケーラブルな相互作用を可能にする。
論文 参考訳(メタデータ) (2025-10-16T17:00:42Z) - Technical Report: Facilitating the Adoption of Causal Inference Methods Through LLM-Empowered Co-Pilot [44.336297829718795]
CATE-Bは,大規模言語モデル(LLM)をエージェントフレームワーク内で使用して,治療効果推定を通じてユーザを誘導する,オープンソースのコパイロットシステムである。
CATE-B は (i) 因果発見と LLM に基づくエッジオリエンテーションによる構造因果モデルの構築、 (ii) 因果構造とデータセット特性に適合した適切な回帰方法を選択することによるロバストな調整セットの同定を支援する。
論文 参考訳(メタデータ) (2025-08-14T12:20:51Z) - Explainability as a Compliance Requirement: What Regulated Industries Need from AI Tools for Design Artifact Generation [0.7874708385247352]
本稿では,AIによるデザインアーティファクト生成における説明可能性のギャップについて,安全クリティカル産業の実践者10人との半構造化インタビューを通して検討する。
我々の研究結果によると、説明不能なAI出力は、広範囲な手作業による検証、ステークホルダ信頼の低減、ドメイン固有の用語を扱うのに苦労、チームコラボレーションの破壊、規制コンプライアンスのリスクの導入を必要としている。
この研究は、要件エンジニアリングにおけるAIツールの透明性、信頼性、適用性を改善するための実践的なロードマップを概説する。
論文 参考訳(メタデータ) (2025-07-12T09:34:39Z) - Lightweight Task-Oriented Semantic Communication Empowered by Large-Scale AI Models [66.57755931421285]
大規模人工知能(LAI)モデルは、リアルタイム通信シナリオにおいて重大な課題を提起する。
本稿では,LAIモデルから知識を抽出・凝縮するために知識蒸留(KD)技術を活用することを提案する。
本稿では,反復推論の必要性を排除したプレストア圧縮機構を備えた高速蒸留法を提案する。
論文 参考訳(メタデータ) (2025-06-16T08:42:16Z) - Hybrid Reasoning for Perception, Explanation, and Autonomous Action in Manufacturing [0.0]
CIPHERは、産業制御のための人間のような推論を再現することを目的としたビジョン言語アクション(VLA)モデルフレームワークである。
システム状態の定量的評価を可能にする回帰モデルであるプロセスエキスパートを統合する。
プロセス監視からの視覚的またはテキスト的入力を解釈し、その決定を説明し、正確なマシン命令を自律的に生成する。
論文 参考訳(メタデータ) (2025-06-10T05:37:33Z) - Evaluating Large Language Models for Real-World Engineering Tasks [75.97299249823972]
本稿では,実運用指向のエンジニアリングシナリオから得られた100以上の質問をキュレートしたデータベースを提案する。
このデータセットを用いて、4つの最先端の大規模言語モデル(LLM)を評価する。
以上の結果から,LLMは時間的および構造的推論において強みを示すが,抽象的推論や形式的モデリング,文脈に敏感な工学的論理にはかなり苦労することがわかった。
論文 参考訳(メタデータ) (2025-05-12T14:05:23Z) - Leveraging LLM Agents and Digital Twins for Fault Handling in Process Plants [0.6990493129893112]
本稿では,Large Language Model (LLM)エージェントとDigital Twin環境を統合するフレームワークを提案する。
Digital Twinは、エージェントプロンプトのための植物特有のエンジニアリング知識の構造化されたリポジトリとして機能する。
提案するフレームワークは, 混合モジュールを自律的に制御するだけでなく, 効果的な補正作用も生成できる。
論文 参考訳(メタデータ) (2025-05-04T12:02:21Z) - Semantic Integrity Constraints: Declarative Guardrails for AI-Augmented Data Processing Systems [39.23499993745249]
セマンティッククエリにおけるLLM出力に対する正当性条件を指定・強制するためのセマンティック整合性制約(SIC)を導入する。
SICは、従来のデータベース整合性制約をセマンティックセッティングに一般化し、グラウンド、サウンドネス、排他といった一般的なタイプの制約をサポートする。
本稿では,SICをクエリ計画と実行環境に統合するシステム設計について述べる。
論文 参考訳(メタデータ) (2025-03-01T19:59:25Z) - ARCEAK: An Automated Rule Checking Framework Enhanced with Architectural Knowledge [2.0159170788984024]
ARC(Automated Rule Checking, 自動ルールチェック)は、産業専門家が実施する従来のモデルレビューの、面倒で一貫性のない、エラーを起こしやすい性質に対処することで、建設産業を前進させる上で重要な役割を担っている。
本研究では,ARCをルール情報抽出と検証コード生成の2つのタスクに分解する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-10T10:37:11Z) - Defining and executing temporal constraints for evaluating engineering
artifact compliance [56.08728135126139]
プロセスコンプライアンスは、実際のエンジニアリング作業が記述されたエンジニアリングプロセスに可能な限り密接に従うことを保証することに焦点を当てます。
これらのプロセスの制約をチェックすることは、依然として大変な作業であり、多くの手作業を必要とし、プロセスの後半にエンジニアにフィードバックを提供する。
関連するエンジニアリングアーティファクト間の時間的制約を,アーティファクトの変更毎に段階的にチェックする,自動制約チェックアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-20T13:26:31Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。