論文の概要: A Solver-in-the-Loop Framework for Improving LLMs on Answer Set Programming for Logic Puzzle Solving
- arxiv url: http://arxiv.org/abs/2512.17093v1
- Date: Thu, 18 Dec 2025 21:45:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.185685
- Title: A Solver-in-the-Loop Framework for Improving LLMs on Answer Set Programming for Logic Puzzle Solving
- Title(参考訳): 論理パズル解法に対する解解集合プログラミングにおけるLLM改善のための解法--Loopフレームワーク
- Authors: Timo Pierre Schrader, Lukas Lange, Tobias Kaminski, Simon Razniewski, Annemarie Friedrich,
- Abstract要約: 大規模言語モデル(LLM)のソルバ誘導型命令チューニングのための新しいASP-solver-in-the-loopアプローチを提案する。
本手法は自然言語とその解法における問題仕様のみを必要とする。
教師付き微調整を応用して、計算データ上でのLSMのトレーニングを行い、さらにソルバ誘導探索を用いてロバスト性を向上させる。
- 参考スコア(独自算出の注目度): 14.391923692962754
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The rise of large language models (LLMs) has sparked interest in coding assistants. While general-purpose programming languages are well supported, generating code for domain-specific languages remains a challenging problem for LLMs. In this paper, we focus on the LLM-based generation of code for Answer Set Programming (ASP), a particularly effective approach for finding solutions to combinatorial search problems. The effectiveness of LLMs in ASP code generation is currently hindered by the limited number of examples seen during their initial pre-training phase. In this paper, we introduce a novel ASP-solver-in-the-loop approach for solver-guided instruction-tuning of LLMs to addressing the highly complex semantic parsing task inherent in ASP code generation. Our method only requires problem specifications in natural language and their solutions. Specifically, we sample ASP statements for program continuations from LLMs for unriddling logic puzzles. Leveraging the special property of declarative ASP programming that partial encodings increasingly narrow down the solution space, we categorize them into chosen and rejected instances based on solver feedback. We then apply supervised fine-tuning to train LLMs on the curated data and further improve robustness using a solver-guided search that includes best-of-N sampling. Our experiments demonstrate consistent improvements in two distinct prompting settings on two datasets.
- Abstract(参考訳): 大規模言語モデル(LLM)の台頭は、コーディングアシスタントへの関心を喚起している。
汎用プログラミング言語は十分にサポートされているが、ドメイン固有言語のためのコードを生成することはLLMにとって難しい問題である。
本稿では,組合せ探索問題の解を見つけるための特に効果的なアプローチである,Answer Set Programming (ASP) のための LLM ベースのコード生成に焦点を当てる。
ASPコード生成におけるLLMの有効性は、現在、最初の事前トレーニングフェーズで見られる限られた数のサンプルによって妨げられている。
本稿では, ASP コード生成に固有の高度に複雑な意味解析タスクに対処するため, LLM のインストラクションチューニングのための新しい ASP-solver-in-the-loop アプローチを提案する。
本手法は自然言語とその解法における問題仕様のみを必要とする。
具体的には、LLMからプログラム継続のためのASP文をサンプリングし、論理パズルを解く。
宣言型ASPプログラミングの特別な特性を活用して、部分的なエンコーディングがソリューション空間を狭めるようにし、解決者フィードバックに基づいて、それらを選択されたインスタンスと拒否されたインスタンスに分類する。
次に、教師付き微調整を適用して、キュレートされたデータ上でLLMを訓練し、さらにNのベスト・オブ・Nサンプリングを含むソルバ誘導探索を用いてロバスト性を向上させる。
実験では、2つのデータセットに対して2つの異なるプロンプト設定で一貫した改善を示す。
関連論文リスト
- Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Capturing Sparks of Abstraction for the ARC Challenge [0.10878040851637999]
商用のLarge Language Models(LLM)でさえ、多くの問題を"理解"するのに苦労しています。
LLM出力から'Sparks of Abstraction'を抽出できることを実証する。
arc-dsl-llm DSLフレームワークとGemini LLM生成データの両方がオープンソースになっている。
論文 参考訳(メタデータ) (2024-11-17T23:40:00Z) - Crystal: Illuminating LLM Abilities on Language and Code [58.5467653736537]
本稿では,自然言語と符号化機能の統合性を高めるための事前学習戦略を提案する。
結果のモデルであるCrystalは、両方のドメインで顕著な能力を示します。
論文 参考訳(メタデータ) (2024-11-06T10:28:46Z) - Prompt Recursive Search: A Living Framework with Adaptive Growth in LLM Auto-Prompting [22.025533583703126]
大規模言語モデル(LLM)のためのPRS(Prompt Recursive Search)フレームワークを提案する。
PRSフレームワークは、問題複雑性と調整可能な構造の評価を取り入れ、エラーの可能性の低減を確実にする。
The Chain of Thought(CoT)法と比較して, PRS法は, Llama3-7Bモデルを用いてBBHデータセットの精度を8%向上し, 22%の改善を実現した。
論文 参考訳(メタデータ) (2024-08-02T17:59:42Z) - Benchmarking the Text-to-SQL Capability of Large Language Models: A
Comprehensive Evaluation [33.41556606816004]
大規模言語モデル(LLM)は、テキストからタスクへ進むための強力なツールとして登場した。
最適なプロンプトテンプレートと設計フレームワークについてはまだ合意が得られていない。
既存のベンチマークでは、テキスト・ツー・プロセスの様々なサブタスクにまたがるLCMのパフォーマンスが不十分である。
論文 参考訳(メタデータ) (2024-03-05T13:23:48Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - LaGR-SEQ: Language-Guided Reinforcement Learning with Sample-Efficient
Querying [71.86163159193327]
大規模言語モデル(LLM)は、最近、テキストを介してコンテキスト対応の応答を提供するという、印象的な能力を実証した。
この能力は、パターン補完に関連するシーケンシャルな意思決定タスクにおいて、妥当なソリューションを予測するために使われる可能性がある。
第一強化学習(RL)エージェントによって部分的に完了したタスクに対する解を提案するために,LLMのこの予測能力を利用するLaGRを紹介した。
論文 参考訳(メタデータ) (2023-08-21T02:07:35Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。