論文の概要: SMLP: Symbolic Machine Learning Prover (User Manual)
- arxiv url: http://arxiv.org/abs/2405.10215v1
- Date: Thu, 16 May 2024 16:05:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-17 13:43:00.205900
- Title: SMLP: Symbolic Machine Learning Prover (User Manual)
- Title(参考訳): SMLP:シンボリック機械学習プロバー(ユーザマニュアル)
- Authors: Franz Brauße, Zurab Khasidashvili, Konstantin Korovin,
- Abstract要約: Symbolic Machine Learning Proverは、機械学習モデルで表されるシステムの探索と最適化のためのオープンソースツールである。
SMLPは、検証と制約の下でMLモデルの探索と最適化にシンボリック推論を使用する。
- 参考スコア(独自算出の注目度): 3.686808512438363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: SMLP: Symbolic Machine Learning Prover an open source tool for exploration and optimization of systems represented by machine learning models. SMLP uses symbolic reasoning for ML model exploration and optimization under verification and stability constraints, based on SMT, constraint and NN solvers. In addition its exploration methods are guided by probabilistic and statistical methods. SMLP is a general purpose tool that requires only data suitable for ML modelling in the csv format (usually samples of the system's input/output). SMLP has been applied at Intel for analyzing and optimizing hardware designs at the analog level. Currently SMLP supports NNs, polynomial and tree models, and uses SMT solvers for reasoning and optimization at the backend, integration of specialized NN solvers is in progress.
- Abstract(参考訳): SMLP: シンボリック機械学習 Proverは、機械学習モデルで表されるシステムの探索と最適化のためのオープンソースのツールである。
SMLPは、SMT、制約、NNソルバに基づく検証および安定性制約の下でのMLモデルの探索と最適化にシンボリック推論を用いる。
さらに、その探索法は確率的および統計的手法によって導かれる。
SMLPは、csvフォーマット(通常はシステムの入出力のサンプル)でMLモデリングに適したデータのみを必要とする汎用ツールである。
SMLPは、アナログレベルでのハードウェア設計の分析と最適化にIntelで採用されている。
現在、SMLPはNN、多項式、ツリーモデルをサポートし、バックエンドでの推論と最適化にSMTソルバを使用している。
関連論文リスト
- DoMINO: A Decomposable Multi-scale Iterative Neural Operator for Modeling Large Scale Engineering Simulations [2.300471499347615]
DoMINOは点クラウドベースの機械学習モデルであり、局所幾何学情報を用いて離散点上の流れ場を予測する。
DoMINOは、DrivAerMLデータセットを使用して、自動車空気力学のユースケースで検証されている。
論文 参考訳(メタデータ) (2025-01-23T03:28:10Z) - LLMs for Cold-Start Cutting Plane Separator Configuration [19.931643536607737]
混合整数線形プログラミングソルバは、専門家の最適化ユーザ以外のすべてのユーザの優先順位を選択するのが難しい、膨大な数のパラメータを伴って出荷される。
既存の機械学習アプローチでソルバを設定するには、数千の関連するMILPインスタンスを解決し、新しい問題サイズに最適化し、複雑なMLパイプラインとカスタムソルバインターフェースを実装する必要がある。
そこで本稿では, 対象MILP問題に使用する切削平面分離器を, インスタンスの特性に基づいて, ほとんど, あるいは全くトレーニングデータなしで構成する LLM ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-16T18:03:57Z) - OptiBench Meets ReSocratic: Measure and Improve LLMs for Optimization Modeling [62.19438812624467]
大規模言語モデル (LLM) は数学的推論における問題解決能力を示した。
本稿では,人間可読入力と出力を用いたエンドツーエンド最適化問題のベンチマークであるOptiBenchを提案する。
論文 参考訳(メタデータ) (2024-07-13T13:27:57Z) - Verbalized Machine Learning: Revisiting Machine Learning with Language Models [63.10391314749408]
言語化機械学習(VML)の枠組みを紹介する。
VMLはパラメータ空間を人間の解釈可能な自然言語に制限する。
我々は,VMLの有効性を実証的に検証し,VMLがより強力な解釈可能性を実現するためのステップストーンとして機能することを期待する。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - Large Language Models Can Automatically Engineer Features for Few-Shot Tabular Learning [35.03338699349037]
本稿では,機能エンジニアとして大規模言語モデルを用いる新しい文脈内学習フレームワークFeatLLMを提案する。
FeatLLMは高品質なルールを生成し、TabLLMやSTUNTなどよりも大幅に(平均で10%)優れている。
論文 参考訳(メタデータ) (2024-04-15T06:26:08Z) - SMLP: Symbolic Machine Learning Prover [2.7624021966289605]
シンボリック・機械学習・プロバー(Sybolic Machine Learning Prover, P)は、複数の入力ベクトル上でシステムをシミュレートまたは実行することによって得られるデータサンプルに基づくシステム探索ツールである。
SMLPは、グレーボックスアプローチを採用することで、このデータに基づいてシステムを探索することを目的としている。
インテルの産業環境では、アナログレベルでのハードウェア設計の分析と最適化に採用されている。
論文 参考訳(メタデータ) (2024-02-02T13:53:29Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - ML-driven Hardware Cost Model for MLIR [1.2987894327817158]
高レベルMLIRのための機械学習に基づくコストモデルを開発した。
MLIRをラ・NLPモデルのテキスト入力として考えることにより、現代のNLP研究からよく知られた技術を適用することができる。
これらのモデルにより,種々のハードウェア特性に対する誤差境界が低く,合理的に優れた推定値が得られることを示す。
論文 参考訳(メタデータ) (2023-02-14T11:32:47Z) - OMLT: Optimization & Machine Learning Toolkit [54.58348769621782]
最適化と機械学習ツールキット(OMLT)は、ニューラルネットワークと勾配ブーストツリーサロゲートモデルを組み込んだオープンソースのソフトウェアパッケージである。
我々は、OMLTを可能とした最適化技術の進歩について論じ、OMLTが代数モデリング言語であるPyomoとシームレスに統合されていることを示す。
論文 参考訳(メタデータ) (2022-02-04T22:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。