論文の概要: REFINESTAT: Efficient Exploration for Probabilistic Program Synthesis
- arxiv url: http://arxiv.org/abs/2509.01082v1
- Date: Mon, 01 Sep 2025 03:13:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.532405
- Title: REFINESTAT: Efficient Exploration for Probabilistic Program Synthesis
- Title(参考訳): REFINESTAT:確率的プログラム合成のための効率的な探索
- Authors: Madhav Kanda, Shubham Ugare, Sasa Misailovic,
- Abstract要約: RefineStatは、セマンティック制約を強制し、合成されたプログラムが有効なパラメータと十分に整ったパラメータを含むことを保証する。
信頼性チェックが失敗するたびに、事前または可能性の高いコンポーネントを再サンプリングすることで、診断に配慮した改善を施す。
構文的に健全で統計的に信頼性の高いプログラムを生成し、しばしばクローズドソースの大規模言語モデルと一致するか、上回っている。
- 参考スコア(独自算出の注目度): 5.509795962249259
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Probabilistic programming offers a powerful framework for modeling uncertainty, yet statistical model discovery in this domain entails navigating an immense search space under strict domain-specific constraints. When small language models are tasked with generating probabilistic programs, they frequently produce outputs that suffer from both syntactic and semantic errors, such as flawed inference constructs. Motivated by probabilistic programmers' domain expertise and debugging strategies, we introduce RefineStat, a language model--driven framework that enforces semantic constraints ensuring synthesized programs contain valid distributions and well-formed parameters, and then applies diagnostic-aware refinement by resampling prior or likelihood components whenever reliability checks fail. We evaluate RefineStat on multiple probabilistic-programming code-generation tasks using smaller language models (SLMs) and find that it produces programs that are both syntactically sound and statistically reliable, often matching or surpassing those from closed-source large language models (e.g., OpenAI o3).
- Abstract(参考訳): 確率的プログラミングは、不確実性をモデル化するための強力なフレームワークを提供するが、この領域における統計的モデル発見は、厳密なドメイン固有の制約の下で巨大な検索空間をナビゲートすることを必要とする。
小さな言語モデルが確率的プログラムを生成するタスクを負うと、しばしば、予測構造に欠陥があるような構文的エラーと意味的エラーの両方に苦しむ出力を生成する。
確率的プログラマのドメインの専門知識とデバッギング戦略によって動機付けられたRefineStatという言語モデル駆動のフレームワークを紹介します。
より小さな言語モデル(SLM)を用いて、複数の確率的プログラミングコード生成タスク上でRefineStatを評価し、構文的に健全で統計的に信頼性の高いプログラムを生成し、多くの場合、クローズドソースの大規模言語モデル(OpenAI o3)のタスクにマッチまたは超えていることを発見した。
関連論文リスト
- Code Vulnerability Detection Across Different Programming Languages with AI Models [0.0]
本稿では,CodeBERTやCodeLlamaのようなトランスフォーマーモデルの実装について述べる。
これは、脆弱で安全なコードフラグメント上でモデルを動的に微調整することで、オフザシェルフモデルがモデル内の予測能力をいかに生み出すかを示している。
実験によると、よく訓練されたCodeBERTは97%以上の精度で既存の静的アナライザに匹敵するか、それ以上に優れている。
論文 参考訳(メタデータ) (2025-08-14T05:41:58Z) - Accelerated Test-Time Scaling with Model-Free Speculative Sampling [58.69141724095398]
STAND(Stochastic Adaptive N-gram Drafting)は,新しいモデルフリーな投機的デコード手法である。
従来の自己回帰復号法と比較して,STANDは推論遅延を60~65%削減することを示した。
モデルフリーのアプローチとして、STANDは追加のトレーニングなしで既存の言語モデルに適用できる。
論文 参考訳(メタデータ) (2025-06-05T07:31:18Z) - Syntactic and Semantic Control of Large Language Models via Sequential Monte Carlo [90.78001821963008]
広い範囲のLMアプリケーションは、構文的制約や意味論的制約に適合するテキストを生成する必要がある。
我々は、連続モンテカルロ(SMC)に基づく制御LM生成のためのアーキテクチャを開発する。
我々のシステムはLew et al. (2023) のフレームワーク上に構築されており、言語モデル確率型プログラミング言語と統合されている。
論文 参考訳(メタデータ) (2025-04-17T17:49:40Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - R-U-SURE? Uncertainty-Aware Code Suggestions By Maximizing Utility
Across Random User Intents [14.455036827804541]
大規模言語モデルは、コードのような構造化されたテキストを予測する上で印象的な結果を示すが、一般的にはエラーや幻覚を出力に導入する。
ランダム化ユーティリティ駆動型不確実領域合成(R-U-SURE)を提案する。
R-U-SUREは、ゴール条件付きユーティリティの意思決定理論モデルに基づく不確実性を考慮した提案を構築するためのアプローチである。
論文 参考訳(メタデータ) (2023-03-01T18:46:40Z) - On the Reliability and Explainability of Language Models for Program
Generation [15.569926313298337]
自動プログラム生成手法の能力と限界について検討する。
私たちは、コード変換に大きく貢献するトークンを強調するために、高度な説明可能なAIアプローチを採用しています。
解析の結果,言語モデルではコード文法や構造情報を認識できるが,入力シーケンスの変化に対するロバスト性は限られていることがわかった。
論文 参考訳(メタデータ) (2023-02-19T14:59:52Z) - Transforming Probabilistic Programs for Model Checking [0.0]
確率的プログラムに静的解析を適用し、2つの重要なモデル検査手法の大部分を自動化する。
本手法は,密度関数を指定する確率的プログラムを,効率的なフォワードサンプリング形式に変換する。
本稿では,一般的なStan確率型プログラミング言語を対象とする実装を提案する。
論文 参考訳(メタデータ) (2020-08-21T21:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。