論文の概要: PySCIPOpt-ML: Embedding Trained Machine Learning Models into
Mixed-Integer Programs
- arxiv url: http://arxiv.org/abs/2312.08074v1
- Date: Wed, 13 Dec 2023 11:36:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 15:33:48.993046
- Title: PySCIPOpt-ML: Embedding Trained Machine Learning Models into
Mixed-Integer Programs
- Title(参考訳): PySCIPOpt-ML:学習機械学習モデルを混合整数プログラムに組み込む
- Authors: Mark Turner, Antonia Chmiela, Thorsten Koch, Michael Winkler
- Abstract要約: Mixed-integer Programming (MIP)は、現実世界の最適化問題をモデル化するためのツールである。
機械学習(ML)モデルは、しばしばこれらの関係を表現するための代理モデルとして、MIPに組み込まれて使用される。
訓練されたMLモデルのMIP自動定式化のためのツールを提案する。
- 参考スコア(独自算出の注目度): 0.8369831063675132
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A standard tool for modelling real-world optimisation problems is
mixed-integer programming (MIP). However, for many of these problems there is
either incomplete information describing variable relations, or the relations
between variables are highly complex. To overcome both these hurdles, machine
learning (ML) models are often used and embedded in the MIP as surrogate models
to represent these relations. Due to the large amount of available ML
frameworks, formulating ML models into MIPs is highly non-trivial. In this
paper we propose a tool for the automatic MIP formulation of trained ML models,
allowing easy integration of ML constraints into MIPs. In addition, we
introduce a library of MIP instances with embedded ML constraints. The project
is available at https://github.com/Opt-Mucca/PySCIPOpt-ML.
- Abstract(参考訳): 実世界の最適化問題をモデル化するための標準的なツールはMIP(mixed-integer Programming)である。
しかし、これらの問題の多くは、変数関係を記述する不完全な情報か、変数間の関係が非常に複雑である。
これらのハードルを克服するために、機械学習(ML)モデルはしばしば、これらの関係を表現するための代理モデルとしてMIPに組み込まれている。
利用可能なMLフレームワークが多すぎるため、MLモデルをMIPに定式化するのは簡単ではない。
本稿では、トレーニングされたmlモデルのmip自動定式化ツールを提案し、ml制約をmipsに容易に統合する。
さらに,ML制約を組み込んだMIPインスタンスのライブラリも導入する。
このプロジェクトはhttps://github.com/Opt-Mucca/PySCIPOpt-MLで入手できる。
関連論文リスト
- Large Language Models Synergize with Automated Machine Learning [2.244306770196829]
本稿では,大規模言語モデル(LLM)と自動機械学習(AutoML)を組み合わせる。
私たちの目標は、マシンラーニングワークフロー全体のコード生成プロセスを完全に自動化することにあります。
実験では,提案手法であるText-to-MLが,MLパイプライン全体の完全自動合成を実現する。
論文 参考訳(メタデータ) (2024-05-06T08:09:46Z) - Large Language Models Can Automatically Engineer Features for Few-Shot Tabular Learning [35.03338699349037]
本稿では,機能エンジニアとして大規模言語モデルを用いる新しい文脈内学習フレームワークFeatLLMを提案する。
FeatLLMは高品質なルールを生成し、TabLLMやSTUNTなどよりも大幅に(平均で10%)優れている。
論文 参考訳(メタデータ) (2024-04-15T06:26:08Z) - Harnessing Large Language Models as Post-hoc Correctors [7.067145619709089]
大規模言語モデル(LLM)は、機械学習(ML)モデルのパフォーマンスを最小限のコストで改善することができる。
提案するトレーニングフリーフレームワークLlmCorrにより,LLMがポストホックな修正器として機能し,任意のMLモデルの予測に対する修正を提案する。
実験の結果,LlmCorrは複数のモデルの性能を最大39%向上することがわかった。
論文 参考訳(メタデータ) (2024-02-20T22:50:41Z) - Model Composition for Multimodal Large Language Models [73.70317850267149]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - Representation Surgery for Multi-Task Model Merging [60.52665037255662]
マルチタスク学習(MTL)は、複数のタスクから情報を統一されたバックボーンに圧縮し、計算効率と一般化を改善する。
最近の研究は、複数の独立して訓練されたモデルをマージして、共同トレーニングのために生データを収集する代わりにMLLを実行する。
既存のモデルマージスキームの表現分布を可視化することにより、マージモデルはしばしば表現バイアスのジレンマに悩まされる。
論文 参考訳(メタデータ) (2024-02-05T03:39:39Z) - MatFormer: Nested Transformer for Elastic Inference [94.1789252941718]
MatFormerは、様々なデプロイメント制約で弾力性を提供するように設計されたネストトランスフォーマーアーキテクチャである。
2.6BデコーダのみのMatFormer言語モデル(MatLM)は1.5Bから2.6Bまでの小さなモデルを抽出できることを示す。
また,MatFormerベースのViT(MatViT)エンコーダから抽出した小さなエンコーダは,適応的な大規模検索のための距離空間構造を保持する。
論文 参考訳(メタデータ) (2023-10-11T17:57:14Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - Towards Efficient Post-training Quantization of Pre-trained Language
Models [85.68317334241287]
PLMのポストトレーニング量子化(PTQ)について検討し,モジュール単位の量子化誤差最小化(MREM)を提案する。
GLUEとSQuADベンチマークの実験により、提案したPTQソリューションはQATに近く動作するだけでなく、トレーニング時間、メモリオーバーヘッド、データ消費を大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2021-09-30T12:50:06Z) - Automatic Componentwise Boosting: An Interpretable AutoML System [1.1709030738577393]
本稿では,高度にスケーラブルなコンポーネントワイドブースティングアルゴリズムを用いて適用可能な,解釈可能な付加モデルを構築するAutoMLシステムを提案する。
我々のシステムは、部分的な効果やペアの相互作用を可視化するなど、簡単なモデル解釈のためのツールを提供する。
解釈可能なモデル空間に制限があるにもかかわらず、我々のシステムは、ほとんどのデータセットにおける予測性能の点で競争力がある。
論文 参考訳(メタデータ) (2021-09-12T18:34:33Z) - A Wasserstein Minimax Framework for Mixed Linear Regression [69.40394595795544]
マルチモーダル分布は、学習タスクにおいてクラスタ化されたデータをモデル化するために一般的に使用される。
混合線形回帰問題に対する最適輸送ベースフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-14T16:03:51Z) - Insights into Performance Fitness and Error Metrics for Machine Learning [1.827510863075184]
機械学習(ML)は、高いレベルの認知を達成し、人間のような分析を行うための訓練機械の分野である。
本稿では、回帰アルゴリズムや分類アルゴリズムにおいて、最もよく使われている性能適合度と誤差の測定値について検討する。
論文 参考訳(メタデータ) (2020-05-17T22:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。