論文の概要: AutoOpt: A Dataset and a Unified Framework for Automating Optimization Problem Solving
- arxiv url: http://arxiv.org/abs/2510.21436v1
- Date: Fri, 24 Oct 2025 13:14:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.478269
- Title: AutoOpt: A Dataset and a Unified Framework for Automating Optimization Problem Solving
- Title(参考訳): AutoOpt: 最適化問題の解決を自動化するためのデータセットと統一フレームワーク
- Authors: Ankur Sinha, Shobhit Arora, Dhaval Pujara,
- Abstract要約: AutoOpt-11kデータセットは、11,000以上の単目的、多目的、手書きの数学的最適化問題のユニークなイメージデータセットである。
データセットは25人の専門家によって作成され、データ生成のエラーを避ける。
最適化問題に対する機械学習に基づく自動アプローチであるAutoOptを開発した。
- 参考スコア(独自算出の注目度): 0.17205106391379024
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study presents AutoOpt-11k, a unique image dataset of over 11,000 handwritten and printed mathematical optimization models corresponding to single-objective, multi-objective, multi-level, and stochastic optimization problems exhibiting various types of complexities such as non-linearity, non-convexity, non-differentiability, discontinuity, and high-dimensionality. The labels consist of the LaTeX representation for all the images and modeling language representation for a subset of images. The dataset is created by 25 experts following ethical data creation guidelines and verified in two-phases to avoid errors. Further, we develop AutoOpt framework, a machine learning based automated approach for solving optimization problems, where the user just needs to provide an image of the formulation and AutoOpt solves it efficiently without any further human intervention. AutoOpt framework consists of three Modules: (i) M1 (Image_to_Text)- a deep learning model performs the Mathematical Expression Recognition (MER) task to generate the LaTeX code corresponding to the optimization formulation in image; (ii) M2 (Text_to_Text)- a small-scale fine-tuned LLM generates the PYOMO script (optimization modeling language) from LaTeX code; (iii) M3 (Optimization)- a Bilevel Optimization based Decomposition (BOBD) method solves the optimization formulation described in the PYOMO script. We use AutoOpt-11k dataset for training and testing of deep learning models employed in AutoOpt. The deep learning model for MER task (M1) outperforms ChatGPT, Gemini and Nougat on BLEU score metric. BOBD method (M3), which is a hybrid approach, yields better results on complex test problems compared to common approaches, like interior-point algorithm and genetic algorithm.
- Abstract(参考訳): 本研究は,非線型性,非凸性,非微分可能性,不連続性,高次元性などの複雑度を呈する単一目的,多目的,多レベル,確率的最適化問題に対応する,11,000以上の手書きおよび印刷数学最適化モデルのユニークな画像データセットであるAutoOpt-11kを提案する。
ラベルは、すべての画像に対するLaTeX表現と、画像のサブセットに対するモデリング言語表現で構成されている。
このデータセットは倫理データ作成ガイドラインに従って25人の専門家によって作成され、エラーを避けるために2フェーズで検証される。
さらに、最適化問題を解決する機械学習ベースの自動化アプローチであるAutoOptフレームワークを開発した。
AutoOptフレームワークは3つのモジュールから構成される。
(i)M1(Image_to_Text)-画像の最適化定式化に対応するLaTeXコードを生成するために、MERタスクを実行する深層学習モデル。
(ii)M2(Text_to_Text)- LaTeXコードからPYOMOスクリプト(最適化モデリング言語)を生成する。
(iii) M3 (Optimization) - PYOMOスクリプトに記述された最適化の定式化を解決する2レベル最適化ベース分解法(BOBD)。
私たちはAutoOptで使用されているディープラーニングモデルのトレーニングとテストにAutoOpt-11kデータセットを使用します。
MERタスク(M1)のディープラーニングモデルは、BLEUスコアでChatGPT、Gemini、Nougatより優れている。
ハイブリッド手法であるBOBD法(M3)は、内部点法や遺伝的アルゴリズムのような一般的な手法と比較して、複雑なテスト問題に対してより良い結果をもたらす。
関連論文リスト
- Table2LaTeX-RL: High-Fidelity LaTeX Code Generation from Table Images via Reinforced Multimodal Language Models [53.03670032402846]
視覚的な入力から,高品質で出版可能なテーブルの再構築を自動化することを目的として,表画像からコード生成への課題に対処する。
このタスクの中心的な課題は、大きなサイズ、深くネストされた構造、セマンティックにリッチか不規則かという複雑なテーブルを正確に扱うことである。
本稿では,大規模テーブル・トゥ・ラデータセット上で事前学習したMLLMを微調整する,強化型マルチモーダル大規模言語モデル(MLLM)を提案する。
論文 参考訳(メタデータ) (2025-09-22T11:13:48Z) - Toward a Trustworthy Optimization Modeling Agent via Verifiable Synthetic Data Generation [11.988926173584154]
本稿では,信頼性の高い大規模言語モデル(LLM)エージェントを合成データ生成パイプラインを介して訓練するためのフレームワークを提案する。
OptiTrustは、自然言語からソルバ対応コードへの多言語翻訳を行うモジュール型LLMエージェントである。
我々のエージェントは、標準ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-08-05T05:54:20Z) - OptimAI: Optimization from Natural Language Using LLM-Powered AI Agents [8.441638148384389]
自然言語で記述された最適化問題を解くためのフレームワークであるOptimAIを紹介する。
私たちのフレームワークは、フォーミュラ、プランナー、コーダ、コード批判といった重要な役割の上に構築されています。
提案手法では,NLP4LPデータセットで88.1%,Optibenchデータセットで82.3%,エラー率で58%,エラー率で52%の精度を実現した。
論文 参考訳(メタデータ) (2025-04-23T17:45:05Z) - OptMATH: A Scalable Bidirectional Data Synthesis Framework for Optimization Modeling [9.617742955894247]
高品質な最適化モデリングデータセットの欠如は、大きな言語モデルを悩ませます。
本稿では,OptMATHという高品質なデータセットを合成するためのスケーラブルなフレームワークを提案する。
我々は,OptMATHでトレーニングした様々なサイズのモデルが,複数のモデリングベンチマークにおいて優れた結果が得られることを実証した。
論文 参考訳(メタデータ) (2025-02-16T12:38:37Z) - Autoformulation of Mathematical Optimization Models Using LLMs [50.030647274271516]
本稿では,自然言語問題記述から解法対応最適化モデルを自動生成する,$textitautoformulation$の問題にアプローチする。
オートフォーミュレーションの3つの主要な課題を識別する: $textit(1)$ 巨大で問題に依存した仮説空間、および$textit(2)$ 不確実性の下でこの空間を効率的かつ多様に探索する。
我々は,$textitLarge Language Models$と$textitMonte-Carlo Tree Search$を併用した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-03T20:41:38Z) - Decoding-Time Language Model Alignment with Multiple Objectives [116.42095026960598]
既存の手法は主に、1つの報酬関数に対してLMを最適化することに集中し、それらの適応性は様々な目的に制限される。
本稿では,予測の線形結合から次のトークンを出力する復号時間アルゴリズムである$textbfmulti-objective decoding (MOD)$を提案する。
提案手法は, 自然条件下であっても, 既存のアプローチが準最適であることを示すとともに, 提案手法の最適性を保証する。
論文 参考訳(メタデータ) (2024-06-27T02:46:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。