論文の概要: Large Language Model for Discrete Optimization Problems: Evaluation and Step-by-step Reasoning
- arxiv url: http://arxiv.org/abs/2603.07733v1
- Date: Sun, 08 Mar 2026 17:02:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.107336
- Title: Large Language Model for Discrete Optimization Problems: Evaluation and Step-by-step Reasoning
- Title(参考訳): 離散最適化問題に対する大規模言語モデル:評価とステップバイステップ推論
- Authors: Tianhao Qian, Guilin Qi, Z. Y. Wu, Ran Gu, Xuanyi Liu, Canchen Lyu,
- Abstract要約: 本研究は,Llama-3シリーズやCHATGPTなど,自然言語データセットのテストによる離散最適化問題の解法における表現形式の違いなど,さまざまなモデルの能力について検討した。
本研究の目的は,(1)大規模問題におけるLCMの能力の概要,(2)離散最適化問題を自動的に解きたい人に提案すること,(3)今後の研究のベンチマークとして評価することである。
- 参考スコア(独自算出の注目度): 14.271411751541871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work investigated the capabilities of different models, including the Llama-3 series of models and CHATGPT, with different forms of expression in solving discrete optimization problems by testing natural language datasets. In contrast to formal datasets with a limited scope of parameters, our dataset included a variety of problem types in discrete optimization problems and featured a wide range of parameter magnitudes, including instances with large parameter sets, integrated with augmented data. It aimed to (1) provide an overview of LLMs' ability in large-scale problems, (2) offer suggestions to those who want to solve discrete optimization problems automatically, and (3) regard the performance as a benchmark for future research. These datasets included original, expanded and augmented datasets. Among these three datasets, the original and augmented ones aimed for evaluation while the expanded one may help finetune a new model. In the experiment, comparisons were made between strong and week models, CoT methods and No-CoT methods on various datasets. The result showed that stronger model performed better reasonably. Contrary to general agreement, it also showed that CoT technique was not always effective regarding the capability of models and disordered datasets improved performance of models on easy to-understand problems, even though they were sometimes with high variance, a manifestation of instability. Therefore, for those who seek to enhance the automatic resolution of discrete optimization problems, it is recommended to consult the results, including the line charts presented in the Appendix, as well as the conclusions drawn in this study for relevant suggestions.
- Abstract(参考訳): 本研究は,Llama-3シリーズやCHATGPTなど,自然言語データセットのテストによる離散最適化問題の解法における表現形式の違いなど,さまざまなモデルの能力について検討した。
パラメータの範囲が限られている形式的データセットとは対照的に、データセットは離散最適化問題における様々な問題タイプを含み、拡張データと統合された大きなパラメータセットを持つインスタンスを含む幅広いパラメータサイズを特徴としている。
本研究の目的は,(1)大規模問題におけるLCMの能力の概要,(2)離散最適化問題を自動的に解きたい人に提案すること,(3)今後の研究のベンチマークとして評価することである。
これらのデータセットには、オリジナル、拡張、拡張データセットが含まれていた。
これら3つのデータセットのうち、オリジナルと拡張されたデータセットは評価を目的としており、拡張されたデータセットは、新しいモデルを微調整するのに役立ちます。
実験では、様々なデータセット上で、強いモデルと週のモデル、CoT法、No-CoT法の比較を行った。
その結果,より強いモデルの方が合理的に優れた結果が得られた。
一般的な合意とは対照的に、CoT技術はモデルと乱れたデータセットの能力に関して必ずしも有効ではなかった。
したがって、離散最適化問題の自動解法を強化するためには、Appendixで提示されたラインチャートや、関連する提案の結論など、結果を参考にすることを推奨する。
関連論文リスト
- OptMATH: A Scalable Bidirectional Data Synthesis Framework for Optimization Modeling [9.617742955894247]
高品質な最適化モデリングデータセットの欠如は、大きな言語モデルを悩ませます。
本稿では,OptMATHという高品質なデータセットを合成するためのスケーラブルなフレームワークを提案する。
我々は,OptMATHでトレーニングした様々なサイズのモデルが,複数のモデリングベンチマークにおいて優れた結果が得られることを実証した。
論文 参考訳(メタデータ) (2025-02-16T12:38:37Z) - iTool: Reinforced Fine-Tuning with Dynamic Deficiency Calibration for Advanced Tool Use [56.31110409360567]
大規模な言語モデルを外部ツールで拡張することは、その機能を強化するための有望なアプローチである。
その結果, 合成データの増加に伴い, トレーニングは著しく低下することがわかった。
我々は,この制限を緩和するために,反復的に強化された微調整戦略を提案する。
論文 参考訳(メタデータ) (2025-01-15T04:52:34Z) - Unleashing LLM Reasoning Capability via Scalable Question Synthesis from Scratch [54.12139707822201]
本稿では,新しい,スケーラブルで費用対効果の高いデータ合成手法であるScaleQuestを提案する。
スクラッチから多様な質問を生成することで、100万の問題解決ペアのデータセットを生成します。
私たちの実験では、データに基づいてトレーニングされたモデルが、既存のオープンソースデータセットより優れています。
論文 参考訳(メタデータ) (2024-10-24T12:42:04Z) - Take the essence and discard the dross: A Rethinking on Data Selection for Fine-Tuning Large Language Models [36.22392593103493]
微調整された大規模言語モデル(LLM)のデータ選択は、既存のデータセットから高品質なサブセットを選択することを目的としている。
既存の調査では、微調整フェーズの詳細な調査を見落としている。
特徴抽出, 基準設計, セレクタ評価を含む新しい3段階の手法を導入し, これらの手法を体系的に分類し, 評価する。
論文 参考訳(メタデータ) (2024-06-20T08:58:58Z) - Diffusion Models as Constrained Samplers for Optimization with Unknown Constraints [55.39203337683045]
拡散モデルを用いてデータ多様体内で最適化を行う。
目的関数の微分可能性に応じて,2つの異なるサンプリング手法を提案する。
提案手法は,従来の最先端のベースラインよりも優れた,あるいは同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-02-28T03:09:12Z) - Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - Learning Distributionally Robust Models at Scale via Composite
Optimization [45.47760229170775]
DROの異なる変種が、スケーラブルな方法を提供する有限サム合成最適化の単なる例であることを示す。
また、非常に大規模なデータセットからロバストなモデルを学ぶために、先行技術に関して提案アルゴリズムの有効性を示す実験結果も提供する。
論文 参考訳(メタデータ) (2022-03-17T20:47:42Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。