論文の概要: Text2Zinc: A Cross-Domain Dataset for Modeling Optimization and Satisfaction Problems in MiniZinc
- arxiv url: http://arxiv.org/abs/2503.10642v1
- Date: Sat, 22 Feb 2025 04:13:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-23 08:30:48.015877
- Title: Text2Zinc: A Cross-Domain Dataset for Modeling Optimization and Satisfaction Problems in MiniZinc
- Title(参考訳): Text2Zinc: MiniZincにおける最適化と満足度問題モデリングのためのドメイン間データセット
- Authors: Akash Singirikonda, Serdar Kadioglu, Karthik Uppuluri,
- Abstract要約: 本稿では,自然言語テキストの最適化と満足度問題に対処するクロスドメインデータセットであるText2Zincを紹介する。
我々の研究は、満足度と最適化の問題の両方を統合データセットに統合することで、以前の試みと区別されている。
以上の結果から, LLMはテキストから問題をモデル化するためのプッシュボタン技術ではないことが示唆された。
- 参考スコア(独自算出の注目度): 2.6217304977339473
- License:
- Abstract: There is growing interest in utilizing large language models (LLMs) as co-pilots for combinatorial optimization and constraint programming tasks across various problems. This paper aims to advance this line of research by introducing Text2Zinc}, a cross-domain dataset for capturing optimization and satisfaction problems specified in natural language text. Our work is distinguished from previous attempts by integrating both satisfaction and optimization problems within a unified dataset using a solver-agnostic modeling language. To achieve this, we leverage MiniZinc's solver-and-paradigm-agnostic modeling capabilities to formulate these problems. Using the Text2Zinc dataset, we conduct comprehensive baseline experiments to compare execution and solution accuracy across several methods, including off-the-shelf prompting strategies, chain-of-thought reasoning, and a compositional approach. Additionally, we explore the effectiveness of intermediary representations, specifically knowledge graphs. Our findings indicate that LLMs are not yet a push-button technology to model combinatorial problems from text. We hope that Text2Zinc serves as a valuable resource for researchers and practitioners to advance the field further.
- Abstract(参考訳): 大規模言語モデル(LLM)を組合せ最適化と制約プログラミングタスクの協調パイロットとして活用することへの関心が高まっている。
本稿は,自然言語テキストに規定される最適化と満足度問題を把握するクロスドメインデータセットである Text2Zinc} を導入することで,この研究線を推し進めることを目的としている。
本研究は,解法に依存しないモデリング言語を用いた統合データセットに満足度と最適化の問題を統合することによって,従来の試みと区別される。
これを実現するために,MiniZinc のソルバ・アンド・パラダイム・アグノースティック・モデリング機能を活用し,これらの問題を定式化する。
Text2Zincデータセットを用いて、オフ・ザ・シェルフ・プロンプト戦略、チェーン・オブ・シント推論、構成的アプローチなど、いくつかの手法で実行と解の精度を比較する包括的なベースライン実験を行う。
さらに,中間表現,特に知識グラフの有効性について検討する。
以上の結果から,LLMはテキストから組合せ問題をモデル化するためのプッシュボタン技術ではないことが示唆された。
Text2Zincが、研究者や実践者がさらなる分野に進出するための貴重なリソースになることを願っています。
関連論文リスト
- OptMATH: A Scalable Bidirectional Data Synthesis Framework for Optimization Modeling [9.617742955894247]
高品質な最適化モデリングデータセットの欠如は、大きな言語モデルを悩ませます。
本稿では,OptMATHという高品質なデータセットを合成するためのスケーラブルなフレームワークを提案する。
我々は,OptMATHでトレーニングした様々なサイズのモデルが,複数のモデリングベンチマークにおいて優れた結果が得られることを実証した。
論文 参考訳(メタデータ) (2025-02-16T12:38:37Z) - Empowering Large Language Models in Wireless Communication: A Novel Dataset and Fine-Tuning Framework [81.29965270493238]
我々は,無線通信アプリケーションのための大規模言語モデル(LLM)の評価と微調整を目的とした,特殊なデータセットを開発した。
データセットには、真/偽と複数選択型を含む、さまざまなマルチホップ質問が含まれている。
本稿では,PVI(Pointwise V-Information)に基づく微調整手法を提案する。
論文 参考訳(メタデータ) (2025-01-16T16:19:53Z) - Solving General Natural-Language-Description Optimization Problems with Large Language Models [34.50671063271608]
外部ソルバでLLMを増強するOPtLLMという新しいフレームワークを提案する。
OptLLMは自然言語でユーザクエリを受け付け、それらを数学的定式化やプログラミングコードに変換し、解決者を呼び出して結果を計算する。
OptLLMフレームワークのいくつかの機能は、2023年6月から試用されている。
論文 参考訳(メタデータ) (2024-07-09T07:11:10Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - SEGO: Sequential Subgoal Optimization for Mathematical Problem-Solving [64.38649623473626]
大規模言語モデル(LLM)は人工知能の大幅な進歩を導いた。
数学的問題を解く能力を高めるために,textbfSEquential subtextbfGoal textbfOptimization (SEGO) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:56:40Z) - Evaluating and Improving Tool-Augmented Computation-Intensive Math
Reasoning [75.74103236299477]
CoT(Chain-of- Thought prompting)とツール拡張は、大きな言語モデルを改善するための効果的なプラクティスとして検証されている。
ツールインターフェース,すなわち textbfDELI を用いた推論ステップを考慮に入れた新しい手法を提案する。
CARPと他の6つのデータセットの実験結果から、提案されたDELIは、主に競合ベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-06-04T17:02:59Z) - NL4Opt Competition: Formulating Optimization Problems Based on Their
Natural Language Descriptions [19.01388243205877]
競争の目標は、非専門家が自然言語を使ってそれらと対話できるようにすることにより、最適化ソルバのアクセシビリティとユーザビリティを向上させることである。
LPワード問題データセットを提示し,NeurIPS 2022コンペティションのためのタスクを共有する。
論文 参考訳(メタデータ) (2023-03-14T20:59:04Z) - Visualizing the Relationship Between Encoded Linguistic Information and
Task Performance [53.223789395577796]
本稿では,Pareto Optimalityの観点から,符号化言語情報とタスクパフォーマンスの動的関係について検討する。
我々は、機械翻訳と言語モデリングという2つの一般的なNLPタスクの実験を行い、様々な言語情報とタスクパフォーマンスの関係について検討する。
実験結果から,NLPタスクには構文情報が有用であるのに対して,より構文情報の符号化が必ずしも優れたパフォーマンスをもたらすとは限らないことが示唆された。
論文 参考訳(メタデータ) (2022-03-29T19:03:10Z) - Contextual Model Aggregation for Fast and Robust Federated Learning in
Edge Computing [88.76112371510999]
フェデレーション学習は、ネットワークエッジにおける分散機械学習の第一候補である。
既存のアルゴリズムは、性能の緩やかな収束や堅牢性の問題に直面している。
そこで本稿では,損失低減に対する最適コンテキスト依存境界を実現するためのコンテキストアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T21:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。