論文の概要: Using Reasoning Models to Generate Search Heuristics that Solve Open Instances of Combinatorial Design Problems
- arxiv url: http://arxiv.org/abs/2505.23881v1
- Date: Thu, 29 May 2025 17:45:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.59963
- Title: Using Reasoning Models to Generate Search Heuristics that Solve Open Instances of Combinatorial Design Problems
- Title(参考訳): 推論モデルを用いた組合せ設計問題の解法探索ヒューリスティックの生成
- Authors: Christopher D. Rosin,
- Abstract要約: 推論を伴う大規模言語モデル(LLM)は、結果が確定する前に反復的に生成および洗練するように訓練される。
設計の数学的分野において, LLMを推論したコード生成を特定のタスクに適用する。
- 参考スコア(独自算出の注目度): 1.9580473532948397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) with reasoning are trained to iteratively generate and refine their answers before finalizing them, which can help with applications to mathematics and code generation. We apply code generation with reasoning LLMs to a specific task in the mathematical field of combinatorial design. This field studies diverse types of combinatorial designs, many of which have lists of open instances for which existence has not yet been determined. The Constructive Protocol CPro1 uses LLMs to generate search heuristics that have the potential to construct solutions to small open instances. Starting with a textual definition and a validity verifier for a particular type of design, CPro1 guides LLMs to select and implement strategies, while providing automated hyperparameter tuning and execution feedback. CPro1 with reasoning LLMs successfully solves long-standing open instances for 7 of 16 combinatorial design problems selected from the 2006 Handbook of Combinatorial Designs, including new solved instances for 3 of these (Bhaskar Rao Designs, Symmetric Weighing Matrices, Balanced Ternary Designs) that were unsolved by CPro1 with non-reasoning LLMs. It also solves open instances for several problems from recent (2025) literature, generating new Covering Sequences, Johnson Clique Covers, Deletion Codes, and a Uniform Nested Steiner Quadruple System.
- Abstract(参考訳): 推論を伴う大規模言語モデル(LLM)は、結論を確定する前に反復的に生成および洗練するように訓練され、数学やコード生成への応用に役立つ。
組合せ設計の数学的分野において, LLMを推論したコード生成を特定のタスクに適用する。
この分野は様々な種類の組合せ設計を研究し、その多くがまだ存在が決定されていない開例のリストを持っている。
Constructive Protocol CPro1はLLMを使用して、小さなオープンインスタンスのソリューションを構築する可能性を持つ検索ヒューリスティックを生成する。
特定のタイプの設計に対するテキスト定義と妥当性検証から始めると、CPro1はLSMに戦略の選択と実装を誘導し、自動ハイパーパラメータチューニングと実行フィードバックを提供する。
LLMを推論するCPro1は、2006年のHandbook of Combinatorial Designsから選択された16の組合せ設計問題のうち7の長期のオープンインスタンスの解決に成功し、3つの新しい解決インスタンス(Bhaskar Rao Designs, Symmetric Weighing Matrices, Balanced Ternary Designs)は非推論のLLMでCPro1によって解決されなかった。
また、最近の(2025年)文学のオープンインスタンスを解決し、新しいカバレッジシーケンス、Johnson Clique Covers、Deletion Codes、Uniform Nested Steiner Quadruple Systemを生成する。
関連論文リスト
- Self-Steering Language Models [113.96916935955842]
DisCIPLは、"セルフステアリング(self-steering)"言語モデルのメソッドである。
DisCIPLはPlannerモデルを使用してタスク固有の推論プログラムを生成する。
我々の研究は、高度に並列化されたモンテカルロ推論戦略の設計空間を開く。
論文 参考訳(メタデータ) (2025-04-09T17:54:22Z) - Code Evolution Graphs: Understanding Large Language Model Driven Design of Algorithms [2.827573861233375]
大規模言語モデル(LLM)はコード生成において大きな可能性を証明しています。
3つのベンチマーク問題クラスの結果を示し、新しい知見を示す。
論文 参考訳(メタデータ) (2025-03-20T19:30:22Z) - Using Code Generation to Solve Open Instances of Combinatorial Design Problems [1.9580473532948397]
Handbook of Combinatorial Designsは、まだ存在が決定されていないオープンインスタンスのリストとともに、さまざまなタイプのデザインをカタログ化している。
我々は,Large Language Models (LLMs) を用いて,これらのオープンインスタンスの設計と解決を行うコードを生成するコンストラクティブプロトコル CPro1 を開発した。
論文 参考訳(メタデータ) (2025-01-29T15:57:43Z) - Dipper: Diversity in Prompts for Producing Large Language Model Ensembles in Reasoning tasks [39.820621967837205]
大規模言語モデルの性能を高める推論時間法は、シーケンシャルなクエリに大きく依存しているが、過去の研究で有効であることが示されている。
本稿では,1つのモデルに最適化された多様なプロンプトを並列に供給する,新しい学習不要なLLMアンサンブルフレームワークを提案する。
実験により,本手法が算数推論タスク,例えばMATHにおいて有意な向上をもたらすことを実証した。
論文 参考訳(メタデータ) (2024-12-12T17:49:05Z) - Graph-Structured Speculative Decoding [52.94367724136063]
投機的復号化は、大規模言語モデルの推論を加速する有望な手法として登場した。
本稿では, 有向非巡回グラフ(DAG)を応用して, 起案された仮説を管理する革新的な手法を提案する。
我々は1.73$times$から1.96$times$に顕著なスピードアップを観察し、標準投機的復号法を大幅に上回った。
論文 参考訳(メタデータ) (2024-07-23T06:21:24Z) - CodeChain: Towards Modular Code Generation Through Chain of Self-revisions with Representative Sub-modules [51.82044734879657]
我々は,自己修正の連鎖を通じてモジュール化されたコード生成を誘発する,新しい推論フレームワークであるCodeChainを提案する。
CodeChainは、生成したソリューションのモジュール性と正確性の両方を大幅に向上させ、APPSで35%、CodeContestsで76%の相対パス@1の改善を実現しています。
論文 参考訳(メタデータ) (2023-10-13T10:17:48Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - A Model-Oriented Approach for Lifting Symmetries in Answer Set
Programming [0.0]
我々は,小問題インスタンスのSBCを解釈可能な一階制約の集合に引き上げる,新しいモデル指向アンサーセットプログラミングを導入する。
簡単な問題をターゲットにして,先進的な意思決定問題にも適用できるように拡張することを目指している。
論文 参考訳(メタデータ) (2022-08-05T10:50:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。