論文の概要: ZeroML: A Next Generation AutoML Language
- arxiv url: http://arxiv.org/abs/2505.18243v1
- Date: Fri, 23 May 2025 16:01:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.260317
- Title: ZeroML: A Next Generation AutoML Language
- Title(参考訳): ZeroML: 次世代のAutoML言語
- Authors: Monirul Islam Mahmud,
- Abstract要約: ZeroMLはAutoMLの新しい世代のプログラミング言語で、コンパイルされたマルチパラダイムな方法でMLパイプラインを駆動する。
ZeroMLは、DataCleaner、FeatureEngineer、ModelSelectorといったモジュラーで再利用可能な部品を追加するマイクロサービスベースのアーキテクチャを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ZeroML is a new generation programming language for AutoML to drive the ML pipeline in a compiled and multi-paradigm way, with a pure functional core. Meeting the shortcomings introduced by Python, R, or Julia such as slow-running time, brittle pipelines or high dependency cost ZeroML brings the Microservices-based architecture adding the modular, reusable pieces such as DataCleaner, FeatureEngineer or ModelSelector. As a native multithread and memory-aware search optimized toolkit, and with one command deployability ability, ZeroML ensures non-coders and ML professionals to create high-accuracy models super fast and in a more reproducible way. The verbosity of the language ensures that when it comes to dropping into the backend, the code we will be creating is extremely clear but the level of repetition and boilerplate required when developing on the front end is now removed.
- Abstract(参考訳): ZeroMLは、AutoMLの新しい世代のプログラミング言語で、コンパイルされた多パラダイムな方法でMLパイプラインを駆動し、純粋な機能コアを持つ。
遅い実行時間や不安定なパイプライン,あるいは高依存性コストといった,PythonやR,あるいはJuliaが導入した欠点に対処する ZeroMLは,マイクロサービスベースのアーキテクチャに,DataCleanerやFeatureEngineer,ModelSelectorといった,モジュール化された再利用可能な部分を追加する。
ZeroMLはネイティブなマルチスレッドおよびメモリ対応検索最適化ツールキットであり、ひとつのコマンドのデプロイ能力によって、非コーダやML専門家が超高速で再現可能な方法で高精度なモデルを作成することを保証している。
言語の冗長性は、バックエンドにドロップすると、生成するコードは極めて明確になるが、フロントエンドでの開発に必要な反復とボイラプレートのレベルがなくなったことを保証します。
関連論文リスト
- Type-Constrained Code Generation with Language Models [51.03439021895432]
本稿では,型システムを利用してコード生成を誘導する型制約デコード手法を提案する。
そこで本研究では,新しい接頭辞オートマトンと,在来型を探索する手法を開発し,LLM生成コードに適切な型付けを強制するための健全なアプローチを構築した。
提案手法は,コード合成,翻訳,修復作業において,コンパイルエラーを半分以上削減し,機能的正しさを著しく向上させる。
論文 参考訳(メタデータ) (2025-04-12T15:03:00Z) - Langformers: Unified NLP Pipelines for Language Models [3.690904966341072]
LangformersはオープンソースのPythonライブラリで、NLPパイプラインを合理化するように設計されている。
会話型AI、事前学習、テキスト分類、文の埋め込み/更新、データラベリング、セマンティック検索、知識蒸留を結合型APIに統合する。
論文 参考訳(メタデータ) (2025-04-12T10:17:49Z) - Verbalized Machine Learning: Revisiting Machine Learning with Language Models [63.10391314749408]
言語化機械学習(VML)の枠組みを紹介する。
VMLはパラメータ空間を人間の解釈可能な自然言語に制限する。
我々は,VMLの有効性を実証的に検証し,VMLがより強力な解釈可能性を実現するためのステップストーンとして機能することを期待する。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - Large Language Models Synergize with Automated Machine Learning [12.364087286739647]
本稿では,大規模言語モデル(LLM)と自動機械学習(AutoML)を組み合わせることで,機械学習(ML)プログラムを対象とするプログラム合成の新たな形態について検討する。
テキストによるタスク記述を前提とした実験では,本手法は完全かつ最適化されたMLプログラムを完全自律的なプロセスで生成する。
論文 参考訳(メタデータ) (2024-05-06T08:09:46Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z) - From Things' Modeling Language (ThingML) to Things' Machine Learning
(ThingML2) [4.014524824655106]
我々はThingMLを拡張し、モデリングレベルで機械学習をサポートする。
当社のDSLでは、データ分析を行う責務を負うものを定義することができます。
コードジェネレータはJavaとPythonで完全な実装を自動的に生成できます。
論文 参考訳(メタデータ) (2020-09-22T15:44:57Z) - DriveML: An R Package for Driverless Machine Learning [7.004573941239386]
DriveMLは、自動機械学習パイプラインのいくつかの柱の実装を支援する。
DriveMLの主な利点は、開発時間の節約、開発者のエラー低減、マシンラーニングモデルとエラーの最適チューニングである。
論文 参考訳(メタデータ) (2020-05-01T16:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。