論文の概要: NL4Opt Competition: Formulating Optimization Problems Based on Their
Natural Language Descriptions
- arxiv url: http://arxiv.org/abs/2303.08233v1
- Date: Tue, 14 Mar 2023 20:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 15:32:19.171160
- Title: NL4Opt Competition: Formulating Optimization Problems Based on Their
Natural Language Descriptions
- Title(参考訳): NL4Optコンペティション:自然言語記述に基づく最適化問題の定式化
- Authors: Rindranirina Ramamonjison, Timothy T. Yu, Raymond Li, Haley Li,
Giuseppe Carenini, Bissan Ghaddar, Shiqi He, Mahdi Mostajabdaveh, Amin
Banitalebi-Dehkordi, Zirui Zhou, Yong Zhang
- Abstract要約: 競争の目標は、最適化ソルバのアクセシビリティとユーザビリティを高めることである。
LPワード問題データセットを提示し,NeurIPS 2022コンペティションのためのタスクを共有する。
- 参考スコア(独自算出の注目度): 19.01388243205877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Natural Language for Optimization (NL4Opt) Competition was created to
investigate methods of extracting the meaning and formulation of an
optimization problem based on its text description. Specifically, the goal of
the competition is to increase the accessibility and usability of optimization
solvers by allowing non-experts to interface with them using natural language.
We separate this challenging goal into two sub-tasks: (1) recognize and label
the semantic entities that correspond to the components of the optimization
problem; (2) generate a meaning representation (i.e., a logical form) of the
problem from its detected problem entities. The first task aims to reduce
ambiguity by detecting and tagging the entities of the optimization problems.
The second task creates an intermediate representation of the linear
programming (LP) problem that is converted into a format that can be used by
commercial solvers. In this report, we present the LP word problem dataset and
shared tasks for the NeurIPS 2022 competition. Furthermore, we present the
winning solutions. Through this competition, we hope to bring interest towards
the development of novel machine learning applications and datasets for
optimization modeling.
- Abstract(参考訳): 最適化のための自然言語(NL4Opt)コンペティションは、そのテキスト記述に基づいて最適化問題の意味と定式化を抽出する方法を検討するために作成された。
具体的には、非専門家が自然言語を使って対話できるようにすることで、最適化ソルバのアクセシビリティとユーザビリティを高めることを目的としている。
この課題を,(1)最適化問題の構成要素に対応する意味的エンティティを認識・ラベル付けすること,(2)検出された問題エンティティから問題の意味表現(論理形式)を生成すること,の2つのサブタスクに分けた。
最初の課題は、最適化問題の実体を検出し、タグ付けすることで曖昧さを減らすことである。
第2のタスクは、線形プログラミング(LP)問題の中間表現を生成し、商用の問題解決者によって使用できる形式に変換する。
本稿では,LP単語問題データセットとNeurIPS 2022コンペティションの共有タスクについて述べる。
さらに, 勝利の解決策を提案する。
このコンペティションを通じて、最適化モデリングのための新しい機械学習アプリケーションやデータセットの開発に関心を寄せたいと思っています。
関連論文リスト
- Autoformulation of Mathematical Optimization Models Using LLMs [50.030647274271516]
商用問題解決者のための自然言語記述から最適化モデルを作成するための自動アプローチを開発する。
本稿では,(1)問題依存仮説空間の定義,(2)不確実性の下でこの空間を効率的に探索すること,(3)定式化の正しさを評価すること,の3つの課題を同定する。
論文 参考訳(メタデータ) (2024-11-03T20:41:38Z) - Solving General Natural-Language-Description Optimization Problems with Large Language Models [34.50671063271608]
外部ソルバでLLMを増強するOPtLLMという新しいフレームワークを提案する。
OptLLMは自然言語でユーザクエリを受け付け、それらを数学的定式化やプログラミングコードに変換し、解決者を呼び出して結果を計算する。
OptLLMフレームワークのいくつかの機能は、2023年6月から試用されている。
論文 参考訳(メタデータ) (2024-07-09T07:11:10Z) - SEGO: Sequential Subgoal Optimization for Mathematical Problem-Solving [64.38649623473626]
大規模言語モデル(LLM)は人工知能の大幅な進歩を導いた。
数学的問題を解く能力を高めるために,textbfSEquential subtextbfGoal textbfOptimization (SEGO) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:56:40Z) - AI-Copilot for Business Optimisation: A Framework and A Case Study in
Production Scheduling [3.522755287096529]
ビジネス最適化問題定式化のためのAI-Copilotを提案する。
トークンの制限については、モジュール化を導入し、エンジニアリング技術を推進します。
問題定式化の精度と品質を評価するのに適した性能評価指標を設計する。
論文 参考訳(メタデータ) (2023-09-22T23:45:21Z) - A Novel Approach for Auto-Formulation of Optimization Problems [66.94228200699997]
Natural Language for Optimization (NL4Opt) NeurIPS 2022コンペティションでは、最適化ソルバのアクセシビリティとユーザビリティの改善に重点を置いている。
本稿では,チームのソリューションについて述べる。
提案手法は,サブタスク1のF1スコアとサブタスク2の0.867の精度を達成し,それぞれ第4位,第3位を獲得した。
論文 参考訳(メタデータ) (2023-02-09T13:57:06Z) - Visualizing the Relationship Between Encoded Linguistic Information and
Task Performance [53.223789395577796]
本稿では,Pareto Optimalityの観点から,符号化言語情報とタスクパフォーマンスの動的関係について検討する。
我々は、機械翻訳と言語モデリングという2つの一般的なNLPタスクの実験を行い、様々な言語情報とタスクパフォーマンスの関係について検討する。
実験結果から,NLPタスクには構文情報が有用であるのに対して,より構文情報の符号化が必ずしも優れたパフォーマンスをもたらすとは限らないことが示唆された。
論文 参考訳(メタデータ) (2022-03-29T19:03:10Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Perceptual reasoning based solution methodology for linguistic
optimization problems [13.548237279353408]
言語最適化問題(LOP)は、単一目的言語最適化問題(SOLOP)と多目的言語最適化問題(MOLOP)の2種類からなる。
言語情報の利用は、必然的に単語による計算(CWW)の活用を要求するため、LOPに対して2-tuple言語モデルに基づく解法が提案された。
その結果, 2-tuple言語モデルに基づく解法は,type-1ファジィ集合と順序項集合の組み合わせを用いて,言語情報のセマンティクスを表すことがわかった。
論文 参考訳(メタデータ) (2020-04-30T16:35:01Z) - Model Inversion Networks for Model-Based Optimization [110.24531801773392]
スコアから入力への逆写像を学習するモデル反転ネットワーク(MIN)を提案する。
MINは高次元の入力空間にスケールでき、コンテキスト最適化と非コンテキスト最適化の両方にオフラインログデータを利用する。
我々は,ベイズ最適化の文献から,画像やタンパク質の設計に対する高次元モデルベース最適化問題,ログデータからのコンテキスト的帯域最適化といったタスクのMINを評価した。
論文 参考訳(メタデータ) (2019-12-31T18:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。