論文の概要: EdnaML: A Declarative API and Framework for Reproducible Deep Learning
- arxiv url: http://arxiv.org/abs/2211.06783v1
- Date: Sun, 13 Nov 2022 01:27:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 20:39:46.428329
- Title: EdnaML: A Declarative API and Framework for Reproducible Deep Learning
- Title(参考訳): EdnaML: 再現可能なディープラーニングのための宣言型APIとフレームワーク
- Authors: Abhijit Suprem, Sanjyot Vaidya, Avinash Venugopal, Joao Eduardo
Ferreira, and Calton Pu
- Abstract要約: 再現可能なディープラーニングのための宣言型APIを備えたフレームワークであるEdnaMLを紹介する。
EdnaMLは、手動で構成できる低レベルのビルディングブロックと、高レベルのパイプラインオーケストレーションAPIを提供する。
大規模なフェイクニュースラベリングと分類システムを含む,EdnaMLを用いたMLパイプラインの例を示す。
- 参考スコア(独自算出の注目度): 2.0632440472879514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning has become the bedrock of recent advances in text, image,
video, and audio processing and generation. Most production systems deal with
several models during deployment and training, each with a variety of tuned
hyperparameters. Furthermore, data collection and processing aspects of ML
pipelines are receiving increasing interest due to their importance in creating
sustainable high-quality classifiers. We present EdnaML, a framework with a
declarative API for reproducible deep learning. EdnaML provides low-level
building blocks that can be composed manually, as well as a high-level pipeline
orchestration API to automate data collection, data processing, classifier
training, classifier deployment, and model monitoring. Our layered API allows
users to manage ML pipelines at high-level component abstractions, while
providing flexibility to modify any part of it through the building blocks. We
present several examples of ML pipelines with EdnaML, including a large-scale
fake news labeling and classification system with six sub-pipelines managed by
EdnaML.
- Abstract(参考訳): 機械学習は、テキスト、画像、ビデオ、オーディオ処理および生成における最近の進歩の基盤となっている。
ほとんどの生産システムは、デプロイとトレーニングの間に複数のモデルに対応し、それぞれが様々な調整されたハイパーパラメータを持つ。
さらに、持続可能な高品質な分類器作成の重要性から、mlパイプラインのデータ収集と処理に関する関心が高まっている。
再現可能なディープラーニングのための宣言型APIを備えたフレームワークであるEdnaMLを紹介する。
EdnaMLは、手動で構成可能な低レベルのビルディングブロックと、データ収集、データ処理、分類器のトレーニング、分類器のデプロイメント、モデル監視を自動化するための高レベルのパイプラインオーケストレーションAPIを提供する。
当社の階層APIは、高レベルのコンポーネント抽象化でMLパイプラインを管理すると同時に、ビルディングブロックを通じてその部分を変更する柔軟性を提供します。
EdnaMLによるMLパイプラインの例として,EdnaMLが管理する6つのサブパイプラインを備えた大規模フェイクニュースラベリングと分類システムを提案する。
関連論文リスト
- LLM-AutoDiff: Auto-Differentiate Any LLM Workflow [58.56731133392544]
自動プロンプト工学(APE)のための新しいフレームワーク LLM-AutoDiff について紹介する。
LLMs-AutoDiffは、各テキスト入力をトレーニング可能なパラメータとして扱い、フリーズした後方エンジンを使用して、テキスト勾配に対するフィードバック・アキンを生成する。
精度とトレーニングコストの両方において、既存のテキスト勾配ベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-01-28T03:18:48Z) - EpiCoder: Encompassing Diversity and Complexity in Code Generation [49.170195362149386]
抽象構文木(AST)にヒントを得た新しい特徴木ベース合成フレームワークを提案する。
コードの構文構造をキャプチャするASTとは異なり、私たちのフレームワークはコード要素間のセマンティックな関係をモデル化します。
広く使われているベースモデルを微調整してEpiCoderシリーズを作成し、関数レベルとファイルレベルの両方で最先端のパフォーマンスを実現しました。
論文 参考訳(メタデータ) (2025-01-08T18:58:15Z) - ExploraCoder: Advancing code generation for multiple unseen APIs via planning and chained exploration [70.26807758443675]
ExploraCoderはトレーニング不要のフレームワークで、大規模な言語モデルにコードソリューションで見えないAPIを呼び出す権限を与える。
ExploraCoderは,事前のAPI知識を欠いたモデルのパフォーマンスを著しく向上させ,NAGアプローチの11.24%,pass@10の事前トレーニングメソッドの14.07%を絶対的に向上させることを示す。
論文 参考訳(メタデータ) (2024-12-06T19:00:15Z) - Harnessing LLMs for API Interactions: A Framework for Classification and Synthetic Data Generation [0.0]
本稿では,自然言語入力を対応するAPI呼び出しに分類するために,Large Language Models (LLM) を統合する新しいシステムを提案する。
本システムでは,単純な入力による複雑なソフトウェア機能の実行,インタラクション効率の向上,ソフトウェア利用障壁の低減を実現している。
論文 参考訳(メタデータ) (2024-09-18T04:56:52Z) - ToolACE: Winning the Points of LLM Function Calling [139.07157814653638]
ToolACEは、正確で複雑で多様なツール学習データを生成するように設計された自動エージェントパイプラインである。
我々は、合成データに基づいてトレーニングされたモデルが、8Bパラメータだけで、バークレー・ファンクション・カリング・リーダーボード上で最先端のパフォーマンスを達成することを実証した。
論文 参考訳(メタデータ) (2024-09-02T03:19:56Z) - SPHINX-X: Scaling Data and Parameters for a Family of Multi-modal Large Language Models [97.40590590880144]
MLLM(Multimodality Large Language Model)シリーズを開発した。
我々は、言語、ビジョン、視覚言語タスクで利用可能なリソースを網羅した包括的なデータセットを組み立てる。
パラメータサイズや多言語能力の異なるMLLMのスペクトルを得る。
論文 参考訳(メタデータ) (2024-02-08T18:59:48Z) - Learning to Learn from APIs: Black-Box Data-Free Meta-Learning [99.56612787882334]
データフリーなメタラーニング(DFML)は、トレーニングデータにアクセスせずに事前訓練されたモデルの集合からメタラーニングすることで、新しいタスクの効率的な学習を可能にすることを目的としている。
既存のDFMLの作業は、(i)ホワイトボックスと(ii)小規模事前訓練モデルからしかメタ学習できない。
ブラックボックスAPIの集合から単一のモデルへ,より一般的なメタ知識を伝達するための,バイレベルデータフリーなメタ知識蒸留(BiDf-MKD)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-28T18:00:12Z) - Deep Pipeline Embeddings for AutoML [11.168121941015015]
AutoMLは、最小限の人間の専門知識で機械学習システムを自動デプロイすることで、AIを民主化するための有望な方向である。
既存のパイプライン最適化テクニックでは、パイプラインステージ/コンポーネント間の深いインタラクションを探索できない。
本稿では,機械学習パイプラインのコンポーネント間のディープインタラクションをキャプチャするニューラルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-05-23T12:40:38Z) - Modeling Quality and Machine Learning Pipelines through Extended Feature
Models [0.0]
本稿では,機能モデルメタモデルを適切に拡張した品質MLパイプラインのための新しいエンジニアリング手法を提案する。
提案されたアプローチでは、MLパイプライン、その品質要件(パイプライン全体と単一フェーズ)、各パイプラインフェーズを実装するアルゴリズムの品質特性をモデル化することができる。
論文 参考訳(メタデータ) (2022-07-15T15:20:28Z) - SapientML: Synthesizing Machine Learning Pipelines by Learning from
Human-Written Solutions [28.718446733713183]
既存のデータセットとその人手によるパイプラインのコーパスから学習できるAutoML SapientMLを提案する。
我々は、170のデータセットにまたがる1094のパイプラインのトレーニングコーパスを作成し、41のベンチマークデータセットでSapientMLを評価した。
我々の評価によると、SapientMLは27のベンチマークでベストまたは同等の精度で、第2のツールでは9のインスタンスでパイプラインを生成できない。
論文 参考訳(メタデータ) (2022-02-18T20:45:47Z) - Evolution of Scikit-Learn Pipelines with Dynamic Structured Grammatical
Evolution [1.5224436211478214]
本稿では、動的構造文法進化(DSGE)をScikit-Learn分類パイプラインの進化に適応させる新しい文法ベースのフレームワークについて述べる。
実験結果は、AutoML-DSGEを他の文法ベースのAutoMLフレームワークであるResilient ClassificationPipeline Evolution (RECIPE)と比較することを含む。
論文 参考訳(メタデータ) (2020-04-01T09:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。