論文の概要: Reusable MLOps: Reusable Deployment, Reusable Infrastructure and
Hot-Swappable Machine Learning models and services
- arxiv url: http://arxiv.org/abs/2403.00787v1
- Date: Mon, 19 Feb 2024 23:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 00:09:58.360677
- Title: Reusable MLOps: Reusable Deployment, Reusable Infrastructure and
Hot-Swappable Machine Learning models and services
- Title(参考訳): 再利用可能なmlops: 再利用可能なデプロイメント、再利用可能なインフラストラクチャ、ホットスワップ可能な機械学習モデルとサービス
- Authors: D Panchal, P Verma, I Baran, D Musgrove, D Lu
- Abstract要約: 私たちは、Reusable MLOpsと呼ばれるAI/MLオペレーションの分野で、持続可能な新しい概念を紹介します。
既存のデプロイメントとインフラストラクチャを再利用して、インフラストラクチャやマイクロサービスを分解することなく、それらをホットスワッピングすることで、新しいモデルを提供しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although Machine Learning model building has become increasingly accessible
due to a plethora of tools, libraries and algorithms being available freely,
easy operationalization of these models is still a problem. It requires
considerable expertise in data engineering, software development, cloud and
DevOps. It also requires planning, agreement, and vision of how the model is
going to be used by the business applications once it is in production, how it
is going to be continuously trained on fresh incoming data, and how and when a
newer model would replace an existing model. This leads to developers and data
scientists working in silos and making suboptimal decisions. It also leads to
wasted time and effort. We introduce the Acumos AI platform we developed and we
demonstrate some unique novel capabilities that the Acumos model runner
possesses, that can help solve the above problems. We introduce a new
sustainable concept in the field of AI/ML operations - called Reusable MLOps -
where we reuse the existing deployment and infrastructure to serve new models
by hot-swapping them without tearing down the infrastructure or the
microservice, thus achieving reusable deployment and operations for AI/ML
models while still having continuously trained models in production.
- Abstract(参考訳): 機械学習モデルの構築は多くのツールやライブラリ、アルゴリズムが自由に利用できるため、ますますアクセスしやすくなってきたが、これらのモデルの操作性は依然として問題となっている。
データエンジニアリング、ソフトウェア開発、クラウド、DevOpsに関する専門知識が必要です。
また、本番環境が完成すれば、そのモデルがどのようにビジネスアプリケーションによって使用されるのか、新しいデータがどのように継続的にトレーニングされるのか、そして、新しいモデルが既存のモデルを置き換えるのか、といった計画、合意、ビジョンも必要です。
これにより、開発者とデータサイエンティストがサイロで作業し、最適でない決定を下すことになる。
また、時間と労力の浪費にも繋がる。
私たちは開発したAcumos AIプラットフォームを導入し、Acumosモデルランナーが持ついくつかのユニークな新機能を示し、上記の問題を解決するのに役立ちます。
そこでは、既存のデプロイメントとインフラストラクチャを再利用して、インフラストラクチャやマイクロサービスを分解することなく、新たなモデルをホットスワッピングして、新たなモデルを提供する。
関連論文リスト
- Towards Synthetic Trace Generation of Modeling Operations using In-Context Learning Approach [1.8874331450711404]
本稿では,イベントログのモデリング,インテリジェントなモデリングアシスタント,モデリング操作の生成を組み合わせた概念的フレームワークを提案する。
特に、アーキテクチャは、設計者がシステムを指定するのを助け、その操作をグラフィカルなモデリング環境内で記録し、関連する操作を自動的に推奨する、モデリングコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-08-26T13:26:44Z) - Data-Juicer Sandbox: A Feedback-Driven Suite for Multimodal Data-Model Co-development [67.55944651679864]
統合データモデル共同開発に適した新しいサンドボックススイートを提案する。
このサンドボックスは、フィードバック駆動の実験プラットフォームを提供し、コスト効率とデータとモデルの両方のガイド付き洗練を可能にする。
論文 参考訳(メタデータ) (2024-07-16T14:40:07Z) - Model Callers for Transforming Predictive and Generative AI Applications [2.7195102129095003]
モデル呼び出し(model caller)と呼ばれる新しいソフトウェア抽象化を導入する。
モデル呼び出しは、AIとMLモデル呼び出しの仲介役として機能する。
我々は、モデル呼び出しのためのPythonライブラリのプロトタイプをリリースした。
論文 参考訳(メタデータ) (2024-04-17T12:21:06Z) - Model-as-a-Service (MaaS): A Survey [42.70857461774014]
ファウンデーションモデルは、生成人工知能(GenAI)の一形態である
モデル・アズ・ア・サービス(M: Model-as-a-Service)は、GenAIモデルのデプロイメントと利用に革命をもたらす画期的なパラダイムとして登場した。
論文 参考訳(メタデータ) (2023-11-10T00:35:00Z) - Model Share AI: An Integrated Toolkit for Collaborative Machine Learning
Model Development, Provenance Tracking, and Deployment in Python [0.0]
モデル共有AI(AIMS)は、コラボレーティブモデル開発、モデル前駆者追跡、モデルデプロイメントを合理化するように設計された、使いやすいMLOpsプラットフォームである。
AIMSは、協調的なプロジェクト空間と、見当たらない評価データに基づいてモデル提出をランク付けする標準化されたモデル評価プロセスを備えている。
AIMSでは、Scikit-Learn、Keras、PyTorch、ONNXで構築されたMLモデルを、ライブREST APIや自動生成されたWebアプリにデプロイすることができる。
論文 参考訳(メタデータ) (2023-09-27T15:24:39Z) - Predicting Resource Consumption of Kubernetes Container Systems using
Resource Models [3.138731415322007]
本稿では,クラウドシステムの資源モデルを実証的に導き出す方法について考察する。
私たちは、CPUとメモリリソースに明示的に準拠したフォーマルな言語でデプロイされたサービスのモデルに基づいています。
我々は、小規模なデプロイメントから収集したデータを経験的に活用して、より大きなデプロイメント上での高強度シナリオの実行をシミュレートする。
論文 参考訳(メタデータ) (2023-05-12T17:59:01Z) - OmniForce: On Human-Centered, Large Model Empowered and Cloud-Edge
Collaborative AutoML System [85.8338446357469]
我々は人間中心のAutoMLシステムであるOmniForceを紹介した。
我々は、OmniForceがAutoMLシステムを実践し、オープン環境シナリオにおける適応型AIを構築する方法について説明する。
論文 参考訳(メタデータ) (2023-03-01T13:35:22Z) - Model Ratatouille: Recycling Diverse Models for Out-of-Distribution
Generalization [99.6826401545377]
ファウンデーションモデルは、AIシステムの構築方法を再定義している。実践者は、機械学習ソリューションを構築するための標準手順に従う。
我々は,多種多様な補助的タスクにおいて,同じ基礎モデルの複数の微調整をリサイクルする新しい戦略であるモデルラタトゥーイユを提案する。
論文 参考訳(メタデータ) (2022-12-20T17:21:46Z) - Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning [65.268245109828]
視覚、言語、音声などのデータに富む領域では、ディープラーニングが高性能なタスク固有モデルを提供するのが一般的である。
リソース制限されたドメインでのディープラーニングは、(i)限られたデータ、(ii)制約付きモデル開発コスト、(iii)効果的な微調整のための適切な事前学習モデルの欠如など、多くの課題に直面している。
モデル再プログラミングは、ソースドメインから十分に訓練されたモデルを再利用して、モデル微調整なしでターゲットドメインのタスクを解くことで、リソース効率のよいクロスドメイン機械学習を可能にする。
論文 参考訳(メタデータ) (2022-02-22T02:33:54Z) - INTERN: A New Learning Paradigm Towards General Vision [117.3343347061931]
我々はInterNという新しい学習パラダイムを開発した。
複数の段階の複数のソースからの監視信号を用いて学習することにより、トレーニング対象のモデルは強力な一般化性を生み出す。
ほとんどの場合、ターゲットドメインのトレーニングデータの10%しか適応していないモデルが、完全なデータセットでトレーニングされたトレーニングデータよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T18:42:50Z) - Model Reuse with Reduced Kernel Mean Embedding Specification [70.044322798187]
現在のアプリケーションで有用なモデルを見つけるための2段階のフレームワークを提案する。
アップロードフェーズでは、モデルがプールにアップロードされている場合、モデルの仕様としてカーネル平均埋め込み(RKME)を縮小する。
デプロイフェーズでは、RKME仕様の値に基づいて、現在のタスクと事前訓練されたモデルの関連性を測定する。
論文 参考訳(メタデータ) (2020-01-20T15:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。