論文の概要: Scalable Deployment of AI Time-series Models for IoT
- arxiv url: http://arxiv.org/abs/2003.12141v1
- Date: Tue, 24 Mar 2020 14:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 09:34:55.353767
- Title: Scalable Deployment of AI Time-series Models for IoT
- Title(参考訳): IoTのためのAI時系列モデルのスケーラブルなデプロイ
- Authors: Bradley Eck, Francesco Fusco, Robert Gormally, Mark Purcell, Seshu
Tirupathi
- Abstract要約: IBM Research Castorは、IoTアプリケーションで時系列モデルを管理およびデプロイするためのクラウドネイティブシステムである。
モデルテンプレートはセマンティックな概念の特定のインスタンスに対してデプロイできる。
実世界のスマートグリッドライブ予測アプリケーションのデプロイ結果が報告されている。
- 参考スコア(独自算出の注目度): 0.7169734491710924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: IBM Research Castor, a cloud-native system for managing and deploying large
numbers of AI time-series models in IoT applications, is described. Modelling
code templates, in Python and R, following a typical machine-learning workflow
are supported. A knowledge-based approach to managing model and time-series
data allows the use of general semantic concepts for expressing feature
engineering tasks. Model templates can be programmatically deployed against
specific instances of semantic concepts, thus supporting model reuse and
automated replication as the IoT application grows. Deployed models are
automatically executed in parallel leveraging a serverless cloud computing
framework. The complete history of trained model versions and rolling-horizon
predictions is persisted, thus enabling full model lineage and traceability.
Results from deployments in real-world smart-grid live forecasting applications
are reported. Scalability of executing up to tens of thousands of AI modelling
tasks is also evaluated.
- Abstract(参考訳): IBM Research Castorは、IoTアプリケーションで大量のAI時系列モデルを管理およびデプロイするためのクラウドネイティブシステムである。
典型的な機械学習ワークフローに従って、PythonとRでコードテンプレートをモデル化する。
モデルと時系列データを管理するための知識に基づくアプローチは、機能エンジニアリングタスクを表現するための一般的なセマンティック概念の使用を可能にする。
モデルテンプレートはセマンティックな概念の特定のインスタンスに対してプログラム的にデプロイできるため、IoTアプリケーションが成長するにつれてモデルの再利用と自動レプリケーションをサポートする。
デプロイされたモデルは、サーバレスクラウドコンピューティングフレームワークを活用することで、自動的に並列に実行される。
トレーニングされたモデルバージョンとローリングホライゾン予測の完全な履歴は継続され、完全なモデル系統とトレーサビリティが実現される。
実世界のスマートグリッドライブ予測アプリケーションのデプロイ結果が報告されている。
最大数万のAIモデリングタスクを実行するスケーラビリティも評価されている。
関連論文リスト
- Model Callers for Transforming Predictive and Generative AI Applications [2.7195102129095003]
モデル呼び出し(model caller)と呼ばれる新しいソフトウェア抽象化を導入する。
モデル呼び出しは、AIとMLモデル呼び出しの仲介役として機能する。
我々は、モデル呼び出しのためのPythonライブラリのプロトタイプをリリースした。
論文 参考訳(メタデータ) (2024-04-17T12:21:06Z) - Reusable MLOps: Reusable Deployment, Reusable Infrastructure and
Hot-Swappable Machine Learning models and services [0.0]
私たちは、Reusable MLOpsと呼ばれるAI/MLオペレーションの分野で、持続可能な新しい概念を紹介します。
既存のデプロイメントとインフラストラクチャを再利用して、インフラストラクチャやマイクロサービスを分解することなく、それらをホットスワッピングすることで、新しいモデルを提供しています。
論文 参考訳(メタデータ) (2024-02-19T23:40:46Z) - Model Share AI: An Integrated Toolkit for Collaborative Machine Learning
Model Development, Provenance Tracking, and Deployment in Python [0.0]
モデル共有AI(AIMS)は、コラボレーティブモデル開発、モデル前駆者追跡、モデルデプロイメントを合理化するように設計された、使いやすいMLOpsプラットフォームである。
AIMSは、協調的なプロジェクト空間と、見当たらない評価データに基づいてモデル提出をランク付けする標準化されたモデル評価プロセスを備えている。
AIMSでは、Scikit-Learn、Keras、PyTorch、ONNXで構築されたMLモデルを、ライブREST APIや自動生成されたWebアプリにデプロイすることができる。
論文 参考訳(メタデータ) (2023-09-27T15:24:39Z) - Prompt2Model: Generating Deployable Models from Natural Language
Instructions [74.19816829003729]
大規模言語モデル(LLM)により、システムビルダーはプロンプトによって有能なNLPシステムを作成することができる。
言い換えれば、LSMは従来の特殊目的のNLPモデルとは逆のステップである。
本稿では,LLMに提供されるプロンプトのように自然言語によるタスク記述を行う汎用手法であるPrompt2Modelを提案する。
論文 参考訳(メタデータ) (2023-08-23T17:28:21Z) - Predicting Resource Consumption of Kubernetes Container Systems using
Resource Models [3.138731415322007]
本稿では,クラウドシステムの資源モデルを実証的に導き出す方法について考察する。
私たちは、CPUとメモリリソースに明示的に準拠したフォーマルな言語でデプロイされたサービスのモデルに基づいています。
我々は、小規模なデプロイメントから収集したデータを経験的に活用して、より大きなデプロイメント上での高強度シナリオの実行をシミュレートする。
論文 参考訳(メタデータ) (2023-05-12T17:59:01Z) - A new hope for network model generalization [66.5377859849467]
ネットワークトラフィックダイナミクスのための機械学習モデルを一般化することは、失われた原因とみなされる傾向がある。
_Transformer_と呼ばれるMLアーキテクチャは、これまで想像不可能だった他のドメインでの一般化を可能にした。
パケットトレースからネットワークダイナミクスを学習するためのNTT(Network Traffic Transformer)を提案する。
論文 参考訳(メタデータ) (2022-07-12T21:16:38Z) - Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning [65.268245109828]
視覚、言語、音声などのデータに富む領域では、ディープラーニングが高性能なタスク固有モデルを提供するのが一般的である。
リソース制限されたドメインでのディープラーニングは、(i)限られたデータ、(ii)制約付きモデル開発コスト、(iii)効果的な微調整のための適切な事前学習モデルの欠如など、多くの課題に直面している。
モデル再プログラミングは、ソースドメインから十分に訓練されたモデルを再利用して、モデル微調整なしでターゲットドメインのタスクを解くことで、リソース効率のよいクロスドメイン機械学習を可能にする。
論文 参考訳(メタデータ) (2022-02-22T02:33:54Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Merlion: A Machine Learning Library for Time Series [73.46386700728577]
Merlionは時系列のためのオープンソースの機械学習ライブラリである。
モデルの統一インターフェースと、異常検出と予測のためのデータセットを備えている。
Merlionはまた、本番環境でのモデルのライブデプロイメントと再トレーニングをシミュレートするユニークな評価フレームワークも提供する。
論文 参考訳(メタデータ) (2021-09-20T02:03:43Z) - FlexServe: Deployment of PyTorch Models as Flexible REST Endpoints [6.730473762151365]
現代のソフトウェアシステムへの人工知能機能の統合は、クラウドベースのサービスと表現型状態転送アーキテクチャを使用することで、ますます単純化されている。
モデル証明とモデル進化に対する制御の欠如に関する不十分な情報は、厳格なセキュリティ要件を持つ多くの運用環境において、これらのサービスをより広く採用する上で障害となる。
論文 参考訳(メタデータ) (2020-02-29T18:51:09Z) - Model Reuse with Reduced Kernel Mean Embedding Specification [70.044322798187]
現在のアプリケーションで有用なモデルを見つけるための2段階のフレームワークを提案する。
アップロードフェーズでは、モデルがプールにアップロードされている場合、モデルの仕様としてカーネル平均埋め込み(RKME)を縮小する。
デプロイフェーズでは、RKME仕様の値に基づいて、現在のタスクと事前訓練されたモデルの関連性を測定する。
論文 参考訳(メタデータ) (2020-01-20T15:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。