論文の概要: Language Server CLI Empowers Language Agents with Process Rewards
- arxiv url: http://arxiv.org/abs/2510.22907v1
- Date: Mon, 27 Oct 2025 01:25:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.414524
- Title: Language Server CLI Empowers Language Agents with Process Rewards
- Title(参考訳): Language Server CLIは、言語エージェントにプロセスリワードを付与する
- Authors: Yifan Zhang, Lanser Contributors,
- Abstract要約: 本稿ではLanser-CLIについて紹介する。Lanser-CLIはCLIファーストのオーケストレーションレイヤで、Language Server Protocol(LSP)サーバをピン留めし仲介する。
私たちの立場では、言語サーバーは構造情報だけでなく、実行可能なプロセス報酬も提供します。
凍結スナップショット下で決定論を定式化し,プロセス報酬の単調性を確立した。
- 参考スコア(独自算出の注目度): 8.38905909723596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models routinely hallucinate APIs and mislocalize edits, while language servers compute verified, IDE-grade facts about real code. We present Lanser-CLI, a CLI-first orchestration layer that pins and mediates a Language Server Protocol (LSP) server for coding agents and CI, exposing deterministic, replayable workflows. Our position is that language servers provide not only structural information (definitions, references, types, diagnostics) but also an actionable process reward: machine-checked, step-wise signals that align an agent's planning loop with program reality. In this work, Lanser-CLI contributes: (i) a robust addressing scheme beyond brittle "file:line:col" via a Selector DSL (symbolic, AST-path, and content-anchored selectors) with a principled relocation algorithm; (ii) deterministic Analysis Bundles that normalize Language Server responses and capture environment/capability metadata with stable content hashes; (iii) a safety envelope for mutating operations (rename, code actions) with preview, workspace jails, and Git-aware, transactional apply; and (iv) a process-reward functional derived from Language Server facts (diagnostic deltas, disambiguation confidence, and safe-apply checks) that is computable online and replayable offline. We formalize determinism under frozen snapshots and establish a monotonicity property for the process reward, making it suitable for process supervision and counterfactual analysis. Project Page: https://github.com/yifanzhang-pro/lanser-cli
- Abstract(参考訳): 大規模な言語モデルは、APIを幻覚し、編集をミスローカライズする一方、言語サーバーは、実際のコードに関するIDEグレードの事実を計算します。
Lanser-CLIはCLIファーストのオーケストレーションレイヤで、エージェントとCIをコーディングするためのLSP(Language Server Protocol)サーバをピン留めし、仲介し、決定論的で再生可能なワークフローを公開する。
私たちの立場では、言語サーバーは構造情報(定義、参照、型、診断)だけでなく、アクション可能なプロセス報酬も提供します。
この研究において、Lanser-CLIは次のように貢献している。
(i)スセレクタDSL(シンボリック、ASTパス、コンテントアンカレートセレクタ)を介して、原則的再配置アルゴリズムにより、脆弱な"file:line:col"を超える堅牢なアドレッシングスキーム。
(II)Language Serverのレスポンスを正規化し、安定したコンテンツハッシュで環境/能力メタデータをキャプチャする決定論的分析バンドル。
(iii) 作業(名前、コードアクション)をプレビュー、ワークスペースジェイル、Git対応で変更するための安全封筒。
(iv)Language Serverのファクト(診断的デルタ、曖昧さの信頼性、安全なアプリケーションチェック)から派生した、オンラインで計算可能で、再生可能でオフラインのプロセス・リワード機能。
凍結スナップショット下で決定論を定式化し、プロセスの報酬に対する単調性を確立し、プロセスの監督と反事実分析に適合する。
Project Page: https://github.com/yifanzhang-pro/lanser-cli
関連論文リスト
- LSPRAG: LSP-Guided RAG for Language-Agnostic Real-Time Unit Test Generation [19.781961858094398]
本稿では,実時間で言語に依存しない単体テスト生成に適した,簡潔な文脈検索のためのフレームワークLSPRAGを提案する。
成熟したLSP(Language Server Protocol)バックエンドを再利用することで、LSPRAGはLLMに言語対応のコンテキスト記述を提供する。
ベースラインの最高のパフォーマンスと比較して、LSPRAGはGolangで174.55%、Javaで213.31%、Pythonで31.57%までラインカバレッジを向上した。
論文 参考訳(メタデータ) (2025-10-25T08:19:21Z) - Large Language Model-Powered Agent for C to Rust Code Translation [2.182572303351317]
現代のシステムプログラミング言語であるRustは、C言語に代わるメモリセーフな代替言語として登場した。
C-to-Rust翻訳のエージェント能力の適用は、異なる課題をもたらす。
数学や常識 QA とは異なり、C-to-Rust に必要な中間ステップは十分に定義されていない。
我々は、新しい中間ステップ、仮想ファジィングに基づく等価テスト(VFT)、エージェント計画フレームワーク、LLMを利用したC-to-Rustコード翻訳のためのエージェント(LAC2R)を提案する。
論文 参考訳(メタデータ) (2025-05-21T01:26:23Z) - Scalable, Validated Code Translation of Entire Projects using Large Language Models [13.059046327936393]
大規模言語モデル(LLM)は、慣用的なコードを生成する能力のため、コード翻訳において有望であることを示す。
既存の作品では、100行以上のコードに対する翻訳の成功率が低下している。
私たちは、コードを独立した翻訳が可能な小さなコードフラグメントに分割する、トランスフォーメーションのためのモジュラーアプローチを開発しています。
我々は,最大6,600行のコードと369の関数に対して,信頼性の高いRustを一貫して生成できることを示し,平均73%の関数をI/O同値で検証した。
論文 参考訳(メタデータ) (2024-12-11T02:31:46Z) - Statically Contextualizing Large Language Models with Typed Holes [4.180458188910334]
大規模言語モデル(LLM)は、プログラム合成のランドスケープを形変えた。
LLMは適切なコンテキストを持たないため、しばしば壊れたコードを幻覚させる。
本稿では,言語の種類と結合構造との密接な統合が,この文脈化問題に対処できることを実証する。
論文 参考訳(メタデータ) (2024-09-02T03:29:00Z) - From LLMs to Actions: Latent Codes as Bridges in Hierarchical Robot Control [58.72492647570062]
我々は,制限を克服する代替アーキテクチャとして,Learningable Latent Codes as Bridges (LCB)を導入した。
methodoutperforms baselines that leverage pure language as the interface layer on tasks that requires reasoning and multi-step behaviors。
論文 参考訳(メタデータ) (2024-05-08T04:14:06Z) - Code-Switched Language Identification is Harder Than You Think [69.63439391717691]
コードスイッチングは、文字と音声の通信において一般的な現象である。
CSコーパスの構築の応用について検討する。
タスクをもっと多くの言語に拡張することで、タスクをより現実的にします。
文レベルのマルチラベルタグ付け問題としてタスクを再構築し、より難易度の高いものにする。
論文 参考訳(メタデータ) (2024-02-02T15:38:47Z) - InterCode: Standardizing and Benchmarking Interactive Coding with
Execution Feedback [50.725076393314964]
標準的な強化学習環境として,インタラクティブコーディングの軽量でフレキシブルで使いやすいフレームワークであるInterCodeを紹介した。
私たちのフレームワークは、言語とプラットフォームに依存しない、自己完結型のDocker環境を使用して、安全で再現可能な実行を提供します。
我々は、異なるプロンプト戦略で構成された複数の最先端LLMを評価することにより、InterCodeの生存性をテストベッドとして示す。
論文 参考訳(メタデータ) (2023-06-26T17:59:50Z) - Language Models as Zero-Shot Planners: Extracting Actionable Knowledge
for Embodied Agents [111.33545170562337]
自然言語で表現された高レベルなタスクを、選択された実行可能なステップのセットに基底付ける可能性について検討する。
事前学習したLMが十分に大きく、適切に誘導された場合、ハイレベルなタスクを効果的に低レベルな計画に分解できることがわかった。
本稿では,既存の実演の条件を規定し,計画が許容可能な行動に意味的に変換される手順を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:59:45Z) - Zero-Shot Cross-lingual Semantic Parsing [56.95036511882921]
7つのテスト言語に対する並列データを持たないゼロショット問題として,言語間セマンティックパーシングについて検討した。
英文論理形式ペアデータのみを用いて解析知識を付加言語に転送するマルチタスクエンコーダデコーダモデルを提案する。
このシステムは、ゼロショット解析を潜時空間アライメント問題としてフレーム化し、事前訓練されたモデルを改善し、最小のクロスリンガル転送ペナルティで論理形式を生成することができる。
論文 参考訳(メタデータ) (2021-04-15T16:08:43Z) - Revisiting Language Encoding in Learning Multilingual Representations [70.01772581545103]
言語埋め込みを置き換えるクロスリンガル言語投影(Cross-lingual Language Projection, XLP)と呼ばれる新しいアプローチを提案する。
XLPは単語埋め込みを言語固有の意味空間に投影し、投影された埋め込みはTransformerモデルに供給される。
実験により、xlpは広範囲の多言語ベンチマークデータセットのモデル性能を自由かつ著しく向上できることが示された。
論文 参考訳(メタデータ) (2021-02-16T18:47:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。