論文の概要: BPMN4sML: A BPMN Extension for Serverless Machine Learning. Technology
Independent and Interoperable Modeling of Machine Learning Workflows and
their Serverless Deployment Orchestration
- arxiv url: http://arxiv.org/abs/2208.02030v1
- Date: Tue, 2 Aug 2022 10:36:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 14:17:01.435877
- Title: BPMN4sML: A BPMN Extension for Serverless Machine Learning. Technology
Independent and Interoperable Modeling of Machine Learning Workflows and
their Serverless Deployment Orchestration
- Title(参考訳): BPMN4sML: サーバレス機械学習のためのBPMN拡張。
機械学習ワークフローのテクノロジに依存しない相互運用可能なモデリングとサーバレスデプロイメントオーケストレーション
- Authors: Laurens Martin Tetzlaff
- Abstract要約: 機械学習(ML)は学術、産業、社会のあらゆる層に浸透し続けている。
ビジネスプロセスモデルと表記法(BPMN)は広く受け入れられ、適用されています。
BPMNは機械学習を表現するための特別なサポートではない。
BPMN4sML(サーバレス機械学習のためのBPMN)を紹介します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) continues to permeate all layers of academia, industry
and society. Despite its successes, mental frameworks to capture and represent
machine learning workflows in a consistent and coherent manner are lacking. For
instance, the de facto process modeling standard, Business Process Model and
Notation (BPMN), managed by the Object Management Group, is widely accepted and
applied. However, it is short of specific support to represent machine learning
workflows. Further, the number of heterogeneous tools for deployment of machine
learning solutions can easily overwhelm practitioners. Research is needed to
align the process from modeling to deploying ML workflows.
We analyze requirements for standard based conceptual modeling for machine
learning workflows and their serverless deployment. Confronting the
shortcomings with respect to consistent and coherent modeling of ML workflows
in a technology independent and interoperable manner, we extend BPMN's
Meta-Object Facility (MOF) metamodel and the corresponding notation and
introduce BPMN4sML (BPMN for serverless machine learning). Our extension
BPMN4sML follows the same outline referenced by the Object Management Group
(OMG) for BPMN. We further address the heterogeneity in deployment by proposing
a conceptual mapping to convert BPMN4sML models to corresponding deployment
models using TOSCA.
BPMN4sML allows technology-independent and interoperable modeling of machine
learning workflows of various granularity and complexity across the entire
machine learning lifecycle. It aids in arriving at a shared and standardized
language to communicate ML solutions. Moreover, it takes the first steps toward
enabling conversion of ML workflow model diagrams to corresponding deployment
models for serverless deployment via TOSCA.
- Abstract(参考訳): 機械学習(ML)は学術、産業、社会のあらゆる層に浸透し続けている。
その成功にもかかわらず、一貫性のある一貫性のある方法で機械学習ワークフローをキャプチャし、表現するメンタルフレームワークは欠如している。
例えば、オブジェクト管理グループによって管理される事実上のプロセスモデリング標準であるBusiness Process Model and Notation(BPMN)が広く受け入れられ、適用されています。
しかし、機械学習ワークフローを表現するための特定のサポートには不足している。
さらに、機械学習ソリューションをデプロイするための異種ツールの数は、実践者を圧倒することができる。
モデリングからMLワークフローのデプロイまでのプロセスを調整するには、研究が必要である。
機械学習ワークフローの標準ベース概念モデリングの要件とそのサーバレスデプロイメントを分析します。
BPMNのメタオブジェクトファシリティ(MOF)メタモデルとそれに対応する表記法を拡張し、BPMN4sML(サーバレス機械学習のためのBPMN)を導入します。
私たちの拡張BPMN4sMLは、BPMNのオブジェクト管理グループ(OMG)が参照したのと同じ概要に従っています。
BPMN4sMLモデルをTOSCAを使用して対応するデプロイメントモデルに変換する概念マッピングを提案することで、デプロイメントの不均一性をさらに解決する。
BPMN4sMLは、機械学習ライフサイクル全体にわたるさまざまな粒度と複雑さの機械学習ワークフローの、テクノロジに依存しない相互運用可能なモデリングを可能にする。
MLソリューションを伝えるために、共有および標準化された言語に到達するのに役立つ。
さらに、MLワークフローモデルダイアグラムを、TOSCAを介してサーバレスデプロイメント用の対応するデプロイメントモデルに変換するための第一歩を踏み出します。
関連論文リスト
- LLaVA-KD: A Framework of Distilling Multimodal Large Language Models [70.19607283302712]
本稿では,l-MLLMからs-MLLMへ知識を伝達する新しいフレームワークを提案する。
具体的には,l-MLLMとs-MLLMの視覚的テキスト出力分布のばらつきを最小限に抑えるために,MDist(Multimodal Distillation)を導入する。
また,S-MLLMの可能性を完全に活用するための3段階学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-21T17:41:28Z) - AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML [56.565200973244146]
自動機械学習(Automated Machine Learning, ML)は、開発パイプライン内のタスクを自動化することによって、AI開発を加速する。
近年の作業では,そのような負担を軽減するために,大規模言語モデル(LLM)の利用が始まっている。
本稿では,フルパイプのAutoMLに適した新しいマルチエージェントフレームワークであるAutoML-Agentを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:01:09Z) - Model Composition for Multimodal Large Language Models [71.5729418523411]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - Model Share AI: An Integrated Toolkit for Collaborative Machine Learning
Model Development, Provenance Tracking, and Deployment in Python [0.0]
モデル共有AI(AIMS)は、コラボレーティブモデル開発、モデル前駆者追跡、モデルデプロイメントを合理化するように設計された、使いやすいMLOpsプラットフォームである。
AIMSは、協調的なプロジェクト空間と、見当たらない評価データに基づいてモデル提出をランク付けする標準化されたモデル評価プロセスを備えている。
AIMSでは、Scikit-Learn、Keras、PyTorch、ONNXで構築されたMLモデルを、ライブREST APIや自動生成されたWebアプリにデプロイすることができる。
論文 参考訳(メタデータ) (2023-09-27T15:24:39Z) - ModelScope-Agent: Building Your Customizable Agent System with
Open-source Large Language Models [74.64651681052628]
本稿では,オープンソースのLCMをコントローラとする実世界のアプリケーションのためのカスタマイズ可能なエージェントフレームワークであるModelScope-Agentを紹介する。
ユーザフレンドリーなシステムライブラリを提供し、カスタマイズ可能なエンジン設計により、複数のオープンソースLLMでモデルトレーニングをサポートする。
ツール使用データ収集、ツール検索、ツール登録、メモリ制御、カスタマイズされたモデルトレーニング、評価にまたがる包括的なフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-09-02T16:50:30Z) - MLOps: A Step Forward to Enterprise Machine Learning [0.0]
この研究は、MLOps、そのメリット、困難、進化、および重要な基盤技術に関する詳細なレビューを提示する。
MLOpsワークフローは、モデルとデータ探索とデプロイメントの両方に必要なさまざまなツールとともに、詳細に説明されている。
この記事では、さまざまな成熟度の高い自動パイプラインを使用して、MLプロジェクトのエンドツーエンド生産にも光を当てます。
論文 参考訳(メタデータ) (2023-05-27T20:44:14Z) - Benchmarking Automated Machine Learning Methods for Price Forecasting
Applications [58.720142291102135]
自動機械学習(AutoML)ソリューションで手作業で作成したMLパイプラインを置換する可能性を示す。
CRISP-DMプロセスに基づいて,手動MLパイプラインを機械学習と非機械学習に分割した。
本稿では、価格予測の産業利用事例として、ドメイン知識とAutoMLを組み合わせることで、ML専門家への依存が弱まることを示す。
論文 参考訳(メタデータ) (2023-04-28T10:27:38Z) - MDE for Machine Learning-Enabled Software Systems: A Case Study and
Comparison of MontiAnna & ML-Quadrat [5.839906946900443]
我々は,モノのインターネット(IoT)分野に着目した機械学習対応ソフトウェアシステムの開発に,MDEパラダイムを採用することを提案する。
ケーススタディで実証されたように、最先端のオープンソースモデリングツールであるMontiAnnaとML-Quadratが、この目的のためにどのように使用できるかを説明します。
論文 参考訳(メタデータ) (2022-09-15T13:21:16Z) - SMLT: A Serverless Framework for Scalable and Adaptive Machine Learning
Design and Training [4.015081523508339]
SMLTは、自動化されたスケーラブルで適応的なサーバレスフレームワークで、効率的でユーザ中心のML設計とトレーニングを可能にする。
SMLTでは、トレーニング中のMLタスクのデプロイメントとリソーススケーリングを動的に最適化するために、自動で適応的なスケジューリング機構を採用している。
大規模で洗練された最新のMLモデルによる実験的な評価は、SMLTが最先端のVMベースシステムと既存のサーバレスMLトレーニングフレームワークを、トレーニング速度(最大8倍)と金銭コスト(最大3倍)で上回っていることを示している。
論文 参考訳(メタデータ) (2022-05-04T02:11:26Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z) - ThingML+ Augmenting Model-Driven Software Engineering for the Internet
of Things with Machine Learning [4.511923587827301]
本稿では,ThingMLの方法論,モデリング言語,ツールサポートの拡張を目的とした研究プロジェクトであるML-Quadratの現況を紹介する。
多くの場合、IoT/CPSサービスにはシステムコンポーネントや物理プロセスが含まれています。
ストリーム処理と複合イベント処理、すなわちApache SAMOAとApamaに関して、コード生成のための2つのターゲットプラットフォームをサポートする予定です。
論文 参考訳(メタデータ) (2020-09-22T15:45:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。