論文の概要: NormCode: A Semi-Formal Language for Context-Isolated AI Planning
- arxiv url: http://arxiv.org/abs/2512.10563v1
- Date: Thu, 11 Dec 2025 11:50:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.347592
- Title: NormCode: A Semi-Formal Language for Context-Isolated AI Planning
- Title(参考訳): NormCode: コンテキスト分離AI計画のための半形式言語
- Authors: Xin Guan,
- Abstract要約: 推論計画を構築するための半形式言語であるNormCodeを提示する。
各ステップはデータ分離で動作し、明示的に渡された入力のみを受け取り、設計によるクロスステップ汚染を排除します。
我々は,(1)任意の長さの入力に対して100%の精度を達成するベースX加算アルゴリズム,(2)NormCode自身の5フェーズコンパイラパイプラインの自己ホスト実行の2つのデモを通じて,NormCodeを検証する。
- 参考スコア(独自算出の注目度): 7.3226942109207895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multistep workflows that chain large language model (LLM) calls suffer from context pollution: as information accumulates across steps, models hallucinate, confuse intermediate outputs, and lose track of task constraints. We present NormCode, a semiformal language for constructing plans of inferences, structured decompositions where each step operates in data isolation and receives only explicitly passed inputs, which eliminates crossstep contamination by design. NormCode enforces a strict separation between semantic operations (LLMdriven reasoning, nondeterministic) and syntactic operations (deterministic data restructuring), enabling precise cost and reliability tracing. The language exists in three isomorphic formats: .ncds for human authoring, .ncd for machine execution, and .ncn for human verification, supporting progressive formalization from sketch to production. We validate NormCode through two demonstrations: (1) a base X addition algorithm achieving 100 percent accuracy on arbitrary length inputs, and (2) self hosted execution of NormCode's own five phase compiler pipeline. The working orchestrator provides dependency driven scheduling, SQLite backed checkpointing, and loop management, making AI workflows auditable by design and addressing a critical need for transparency in high stakes domains such as legal reasoning, medical decision making, and financial analysis.
- Abstract(参考訳): 大きな言語モデル(LLM)コールをチェーンするマルチステップワークフローは、ステップにまたがる情報を蓄積するにつれて、中間出力を混乱させ、タスク制約の追跡を失うという、コンテキスト汚染に悩まされる。
推論計画を構築するための半形式言語であるNormCodeについて述べる。各ステップがデータ分離で動作し、明示的に渡された入力のみを受け取り、設計によるクロスステップ汚染を排除した構造化分解である。
NormCodeはセマンティック操作(LLM駆動推論、非決定論的推論)と構文操作(決定論的データ再構成)を厳格に分離し、正確なコストと信頼性の追跡を可能にする。
言語は以下の3つの同型形式に存在する。
ncds for human authoring,
ncd for machine execution, and 。
スケッチからプロダクションへのプログレッシブフォーマライゼーションをサポートする。
我々は,(1)任意の長さの入力に対して100%の精度を達成するベースX加算アルゴリズム,(2)NormCode自身の5フェーズコンパイラパイプラインの自己ホスト実行の2つのデモを通じて,NormCodeを検証する。
作業オーケストレータは、依存関係駆動のスケジューリング、SQLiteのバックアップされたチェックポイント、ループ管理を提供し、設計によってAIワークフローを監査可能にし、法律的推論、医療的意思決定、財務分析といった高利害な領域における透明性に対する重要なニーズに対処する。
関連論文リスト
- Reasoning Core: A Scalable Procedural Data Generation Suite for Symbolic Pre-training and Post-Training [2.62112541805429]
Reasoning Coreは、コア形式ドメイン間で検証可能なシンボリック推論データを手続き的に生成するスケーラブルなスイートである。
各タスクは厳密な検証のための外部解決器と組み合わせられ、カリキュラム設計のための継続的な難易度制御が認められる。
実験によると、Reasoning Coreのデータを事前トレーニングに混ぜることによって、下流の推論が改善され、保存されたり、わずかに改善された言語モデリングの品質が向上する。
論文 参考訳(メタデータ) (2026-03-02T18:59:29Z) - Lookahead-then-Verify: Reliable Constrained Decoding for Diffusion LLMs under Context-Free Grammars [17.13122301190815]
本稿では,dLLMに特化して設計された制約付き復号法であるLAVEを提案する。
提案手法は,dLLMの鍵となる特性,すなわち前方通過時の全位置のトークン分布を予測する能力を利用する。
広く使用されている4つのdLLMと3つの代表的なベンチマークによる大規模な実験は、LAVEが既存のベースラインを一貫して上回り、構文的正確性を大幅に改善し、無視可能なランタイムオーバーヘッドを発生させることを示した。
論文 参考訳(メタデータ) (2026-01-31T08:58:15Z) - Multi-Agent Procedural Graph Extraction with Structural and Logical Refinement [66.51979814832332]
モデル式は、専用の構造的および論理的洗練を伴う多ラウンド推論プロセスとして手続きグラフ抽出を定式化する。
実験により、モデルが強いベースラインに対して構造的正当性と論理的整合性の両方において大幅に改善されることが示されている。
論文 参考訳(メタデータ) (2026-01-27T04:00:48Z) - BRIDGE: Building Representations In Domain Guided Program Verification [67.36686119518441]
BRIDGEは、検証をコード、仕様、証明の3つの相互接続ドメインに分解する。
提案手法は, 標準誤差フィードバック法よりも精度と効率を著しく向上することを示す。
論文 参考訳(メタデータ) (2025-11-26T06:39:19Z) - zkStruDul: Programming zkSNARKs with Structural Duality [0.2449909275410287]
zkStruDulは、入力変換を統一し、定義を単一の複合抽象化に述語する言語である。
我々は、ソースレベルのセマンティクスを提供し、その振る舞いが予測されたセマンティクスと同一であることを証明する。
論文 参考訳(メタデータ) (2025-11-13T18:06:21Z) - Scaling Code-Assisted Chain-of-Thoughts and Instructions for Model Reasoning [65.20602712957725]
Cacoは、高品質で検証可能な多様な命令-CoT推論データの合成を自動化する新しいフレームワークである。
我々の研究は、人間の介入なしに自己持続的で信頼できる推論システムを構築するためのパラダイムを確立します。
論文 参考訳(メタデータ) (2025-10-05T07:59:24Z) - PLSemanticsBench: Large Language Models As Programming Language Interpreters [31.611330217819713]
大規模言語モデル(LLMs)がコード推論に長けているため、自然な疑問が生じる: LLMはプログラム(つまり、インタプリタとして振舞う)を純粋にプログラミング言語の形式的意味論に基づいて実行できるか?
本稿では, 命令型言語IMPを用いて, 小ステップ操作意味論 (SOS) と書き直しに基づく操作意味論 (K-semantics) によって定式化されている問題について検討する。
本稿では,Human-Written,LLM-Translated,Fuzzer-Generatedの3つの評価セットを提案する。
論文 参考訳(メタデータ) (2025-10-03T18:23:26Z) - Re:Form -- Reducing Human Priors in Scalable Formal Software Verification with RL in LLMs: A Preliminary Study on Dafny [78.1575956773948]
強化学習(RL)で訓練された大規模言語モデル(LLM)は、信頼性も拡張性もない、という大きな課題に直面している。
有望だが、ほとんど報われていない代替手段は、フォーマルな言語ベースの推論である。
生成モデルが形式言語空間(例えばダフニー)で機能する厳密な形式体系におけるLLMの接地は、それらの推論プロセスと結果の自動的かつ数学的に証明可能な検証を可能にする。
論文 参考訳(メタデータ) (2025-07-22T08:13:01Z) - Fast Controlled Generation from Language Models with Adaptive Weighted Rejection Sampling [90.86991492288487]
トークンの制約を評価するのは 違法にコストがかかる
LCDは文字列上のグローバル分布を歪め、ローカル情報のみに基づいてトークンをサンプリングすることができる。
我々のアプローチは最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-04-07T18:30:18Z) - AI Chain on Large Language Model for Unsupervised Control Flow Graph
Generation for Statically-Typed Partial Code [21.423928174875844]
制御フローグラフ(CFG)は、プログラムの振る舞いを可視化、理解、分析するために不可欠である。
本稿では,事前学習された大規模言語モデル(LLM)の誤り耐性と理解能力を活用してCFGを生成する手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T14:52:59Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。