論文の概要: Parallelizing Machine Learning as a Service for the End-User
- arxiv url: http://arxiv.org/abs/2005.14080v2
- Date: Fri, 29 May 2020 09:13:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 04:42:58.170295
- Title: Parallelizing Machine Learning as a Service for the End-User
- Title(参考訳): エンドユーザのためのサービスとしての機械学習の並列化
- Authors: Daniela Loreti and Marco Lippi and Paolo Torroni
- Abstract要約: 典型的なMLシステムパイプラインの並列化に活用できる分散アーキテクチャを提案する。
そこで本研究では,テキストマイニングサービスによるケーススタディを提案し,本手法を多くの類似アプリケーションに一般化する方法について論じる。
- 参考スコア(独自算出の注目度): 14.389966909395058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As ML applications are becoming ever more pervasive, fully-trained systems
are made increasingly available to a wide public, allowing end-users to submit
queries with their own data, and to efficiently retrieve results. With
increasingly sophisticated such services, a new challenge is how to scale up to
evergrowing user bases. In this paper, we present a distributed architecture
that could be exploited to parallelize a typical ML system pipeline. We propose
a case study consisting of a text mining service and discuss how the method can
be generalized to many similar applications. We demonstrate the significance of
the computational gain boosted by the distributed architecture by way of an
extensive experimental evaluation.
- Abstract(参考訳): MLアプリケーションがより広く普及するにつれて、完全にトレーニングされたシステムは広く一般に公開され、エンドユーザは自身のデータでクエリを送信し、結果を効率的に取得することができる。
このようなサービスがますます洗練されていく中、新しい課題はユーザーベースを成長させる方法だ。
本稿では,典型的なMLシステムパイプラインの並列化に活用可能な分散アーキテクチャを提案する。
本稿では,テキストマイニングサービスによるケーススタディを提案し,その手法を多くの類似アプリケーションに一般化する方法について議論する。
分散アーキテクチャによって促進される計算利得の意義を,広範な実験的評価によって実証する。
関連論文リスト
- Leveraging Retrieval-Augmented Generation for University Knowledge Retrieval [2.749898166276854]
本稿では,Large Language Models (LLM) を用いたレトリーバル拡張生成(RAG)パイプラインを用いた革新的なアプローチを提案する。
大学公式Webページからデータを体系的に抽出することにより、ユーザクエリに対する正確で文脈的に関連する応答を生成する。
実験の結果, 生成した応答の精度と関連性に大きな改善が認められた。
論文 参考訳(メタデータ) (2024-11-09T17:38:01Z) - BabelBench: An Omni Benchmark for Code-Driven Analysis of Multimodal and Multistructured Data [61.936320820180875]
大規模言語モデル(LLM)は、様々な領域でますます重要になっている。
BabelBenchは、コード実行によるマルチモーダルなマルチ構造化データ管理におけるLLMの熟練度を評価する革新的なベンチマークフレームワークである。
BabelBenchの実験結果から,ChatGPT 4のような最先端モデルでさえ,大幅な改善の余地があることが示唆された。
論文 参考訳(メタデータ) (2024-10-01T15:11:24Z) - Dynamic Few-Shot Learning for Knowledge Graph Question Answering [3.116231004560997]
大規模言語モデルが知識グラフ(KGQA)に対する革新的質問回答の機会を提示する
このギャップを埋めるために、ファインチューニングやアドホックなアーキテクチャに依存し、良い結果を得るが、領域外分布の一般化は限られるソリューションが提案されている。
本研究では,DFL(Dynamic Few-Shot Learning)と呼ばれる新しい手法を提案する。
DFLは、文脈内学習の効率性と意味的類似性を統合し、最先端の性能を持つKGQAの一般的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-07-01T15:59:17Z) - Architect, Regularize and Replay (ARR): a Flexible Hybrid Approach for
Continual Learning [13.492896179777835]
ARR(Architect, Regularize and Replay)は、AR1アルゴリズムとそのバリエーションのハイブリッド一般化である。
また、CIFAR-100、CORe50、ImageNet-1000といった現実世界のデータセットから生成された任意のデータストリームに一般化することができる。
論文 参考訳(メタデータ) (2023-01-06T11:22:59Z) - Distributed intelligence on the Edge-to-Cloud Continuum: A systematic
literature review [62.997667081978825]
このレビューは、現在利用可能な機械学習とデータ分析のための最先端ライブラリとフレームワークに関する包括的なビジョンを提供することを目的としている。
現在利用可能なEdge-to-Cloud Continuumに関する実験的な研究のための、主要なシミュレーション、エミュレーション、デプロイメントシステム、テストベッドも調査されている。
論文 参考訳(メタデータ) (2022-04-29T08:06:05Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Deployment Optimization for Shared e-Mobility Systems with Multi-agent
Deep Neural Search [15.657420177295624]
共有e-mobilityサービスは世界中の都市で広くテストされ、試験運用されている。
本稿では,持続的な収益性を維持しつつ,ユーザに対してユビキタスなサービスを実現するための,空間的・時間的インフラストラクチャの展開と管理方法について検討する。
我々は,共有電子移動システムの主要動作詳細を粒度で抽象化した高忠実度シミュレーション環境を設計することで,この問題に対処する。
論文 参考訳(メタデータ) (2021-11-03T11:37:11Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。