論文の概要: EmbeddedML: A New Optimized and Fast Machine Learning Library
- arxiv url: http://arxiv.org/abs/2509.12774v1
- Date: Tue, 16 Sep 2025 07:44:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.952199
- Title: EmbeddedML: A New Optimized and Fast Machine Learning Library
- Title(参考訳): EmbeddedML: 最適化された高速機械学習ライブラリ
- Authors: Halil Hüseyin Çalışkan, Talha Koruk,
- Abstract要約: この記事では、トレーニング時間に最適化され、数学的に拡張された機械学習ライブラリであるEmbededMLを紹介します。
Logistic Regression and Support Vector Machines (SVM)アルゴリズムは、トレーニング時間を短縮するために数学的に書き換えられた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models and libraries can train datasets of different sizes and perform prediction and classification operations, but machine learning models and libraries cause slow and long training times on large datasets. This article introduces EmbeddedML, a training-time-optimized and mathematically enhanced machine learning library. The speed was increased by approximately times compared to scikit-learn without any loss in terms of accuracy in regression models such as Multiple Linear Regression. Logistic Regression and Support Vector Machines (SVM) algorithms have been mathematically rewritten to reduce training time and increase accuracy in classification models. With the applied mathematical improvements, training time has been reduced by approximately 2 times for SVM on small datasets and by around 800 times on large datasets, and by approximately 4 times for Logistic Regression, compared to the scikit-learn implementation. In summary, the EmbeddedML library offers regression, classification, clustering, and dimensionality reduction algorithms that are mathematically rewritten and optimized to reduce training time.
- Abstract(参考訳): 機械学習モデルとライブラリは、さまざまなサイズのデータセットをトレーニングし、予測と分類操作を実行することができる。
この記事では、トレーニング時間に最適化され、数学的に拡張された機械学習ライブラリであるEmbededMLを紹介します。
複数の線形回帰のような回帰モデルにおいて、精度を損なうことなく、スキートラーンと比較して約3倍の速度で速度が向上した。
Logistic Regression and Support Vector Machines (SVM)アルゴリズムは、トレーニング時間を短縮し、分類モデルの精度を高めるために数学的に書き換えられた。
応用された数学的改善により、SVMを小さなデータセットで約2倍、大規模なデータセットで約800倍、ロジスティック回帰を約4倍削減した。
要約すると、EmbededMLライブラリは回帰、分類、クラスタリング、次元削減アルゴリズムを提供し、数学的に書き換えられ、トレーニング時間を短縮するために最適化されている。
関連論文リスト
- SPaRFT: Self-Paced Reinforcement Fine-Tuning for Large Language Models [51.74498855100541]
大規模言語モデル(LLM)は、強化学習(RL)による微調整時に強い推論能力を示す。
トレーニング対象のモデルの性能に基づいて,効率的な学習を可能にする自己評価学習フレームワークである textbfSPaRFT を提案する。
論文 参考訳(メタデータ) (2025-08-07T03:50:48Z) - An Efficient Training Algorithm for Models with Block-wise Sparsity [6.882042556551613]
本稿では,学習と推論において,計算コストとメモリコストの両方を削減できる効率的なトレーニングアルゴリズムを提案する。
我々のアルゴリズムは、ベースラインに比べて性能低下を伴わずに計算とメモリコストを大幅に削減できる。
論文 参考訳(メタデータ) (2025-03-27T19:14:27Z) - Squeezing Lemons with Hammers: An Evaluation of AutoML and Tabular Deep Learning for Data-Scarce Classification Applications [2.663744975320783]
L2正規化ロジスティック回帰は、最先端の自動機械学習(AutoML)フレームワークと同様の性能を発揮する。
データスカースアプリケーションの第1選択として、ロジスティック回帰を考慮することをお勧めします。
論文 参考訳(メタデータ) (2024-05-13T11:43:38Z) - Winner-Take-All Column Row Sampling for Memory Efficient Adaptation of Language Model [89.8764435351222]
分散を低減した行列生成のために, WTA-CRS と呼ばれる新しい非バイアス推定系を提案する。
我々の研究は、チューニング変換器の文脈において、提案した推定器が既存のものよりも低い分散を示すという理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-05-24T15:52:08Z) - On the Costs and Benefits of Adopting Lifelong Learning for Software
Analytics -- Empirical Study on Brown Build and Risk Prediction [17.502553991799832]
本稿では,ユビソフトにおける産業用ユースケースにおける生涯学習(LL)の利用について検討する。
LLは、新しいデータを使用して古いモデルを段階的に更新するインクリメンタルラーナを使用して、MLベースのソフトウェア分析ツールを継続的に構築し、メンテナンスするために使用される。
論文 参考訳(メタデータ) (2023-05-16T21:57:16Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Next Generation Reservoir Computing [0.0]
貯留層計算(Reservoir computing)は、動的システムによって生成される情報を処理する機械学習アルゴリズムである。
非常に小さなトレーニングデータセットを必要とし、線形最適化を使用するため、最小限の計算資源を必要とする。
最近の結果は, 非線形ベクトル自己回帰に対する貯水池計算の等価性を示している。
論文 参考訳(メタデータ) (2021-06-14T18:12:10Z) - AML-SVM: Adaptive Multilevel Learning with Support Vector Machines [0.0]
本稿では非線形SVMのための適応型多段階学習フレームワークを提案する。
改良プロセス全体の分類品質を改善し、マルチスレッド並列処理を活用して性能を向上する。
論文 参考訳(メタデータ) (2020-11-05T00:17:02Z) - Predicting Training Time Without Training [120.92623395389255]
我々は、事前訓練された深層ネットワークが損失関数の所定の値に収束する必要がある最適化ステップの数を予測する問題に取り組む。
我々は、微調整中の深部ネットワークのトレーニングダイナミクスが線形化モデルによってよく近似されているという事実を活用する。
トレーニングをする必要なく、特定の損失にモデルを微調整するのに要する時間を予測できます。
論文 参考訳(メタデータ) (2020-08-28T04:29:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。