論文の概要: Distributed Double Machine Learning with a Serverless Architecture
- arxiv url: http://arxiv.org/abs/2101.04025v2
- Date: Wed, 24 Feb 2021 12:13:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 14:45:36.890013
- Title: Distributed Double Machine Learning with a Serverless Architecture
- Title(参考訳): サーバレスアーキテクチャによる分散ダブル機械学習
- Authors: Malte S. Kurz
- Abstract要約: 本稿では、ダブル機械学習のためのサーバーレスクラウドコンピューティングについて検討する。
ダブル機械学習は、サーバーレスコンピューティングで実現可能な高いレベルの並列性を利用するのに特に適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores serverless cloud computing for double machine learning.
Being based on repeated cross-fitting, double machine learning is particularly
well suited to exploit the high level of parallelism achievable with serverless
computing. It allows to get fast on-demand estimations without additional cloud
maintenance effort. We provide a prototype Python implementation
\texttt{DoubleML-Serverless} for the estimation of double machine learning
models with the serverless computing platform AWS Lambda and demonstrate its
utility with a case study analyzing estimation times and costs.
- Abstract(参考訳): 本稿では、ダブル機械学習のためのサーバレスクラウドコンピューティングについて検討する。
繰り返しのクロスフィッティングに基づいており、サーバーレスコンピューティングで実現可能な高いレベルの並列性を利用するのに、ダブル機械学習は特に適しています。
クラウドのメンテナンスを必要とせずに、オンデマンドで素早く見積もることができる。
サーバレスコンピューティングプラットフォームAWS Lambdaで、二重機械学習モデルの推定を行うための、Python実装のプロトタイプである‘texttt{DoubleML-Serverless}’を提供し、見積もり時間とコストを分析するケーススタディでその実用性を実証する。
関連論文リスト
- Hyperdimensional Vector Tsetlin Machines with Applications to Sequence Learning and Generation [0.0]
我々は,バニラ・テトリンマシンと競合する高速かつ高速な逐次データを学習し,生成するための2層モデルを構築した。
提案手法は,予測,新しいシーケンス生成,分類の2分野に適用する。
後者については、UCR Time Series Archiveの全結果から導出し、標準ベンチマークと比較して、時系列分類において、その手法がいかに優れているかを確認する。
論文 参考訳(メタデータ) (2024-08-29T15:28:01Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Architecting Peer-to-Peer Serverless Distributed Machine Learning
Training for Improved Fault Tolerance [1.495380389108477]
サーバレスコンピューティングは、計算単位として関数を使用するクラウドコンピューティングの新しいパラダイムである。
ワークロードを分散することにより、分散機械学習はトレーニングプロセスを高速化し、より複雑なモデルをトレーニングできるようにする。
本稿では、分散機械学習トレーニングにおけるサーバーレスコンピューティングの利用について検討し、P2Pアーキテクチャの性能とパラメータサーバアーキテクチャを比較した。
論文 参考訳(メタデータ) (2023-02-27T17:38:47Z) - AlpaServe: Statistical Multiplexing with Model Parallelism for Deep
Learning Serving [53.01646445659089]
モデル並列性は、複数のモデルを提供する場合、複数のデバイスの統計多重化に利用できることを示す。
本稿では,大規模ディープラーニングモデルのコレクションを配置・並列化するための効率的な戦略を決定する新しいサービスシステムAlpaServeを提案する。
論文 参考訳(メタデータ) (2023-02-22T21:41:34Z) - PARTIME: Scalable and Parallel Processing Over Time with Deep Neural
Networks [68.96484488899901]
PartIMEは、データが継続的にストリーミングされるたびにニューラルネットワークを高速化するように設計されたライブラリです。
PartIMEは、ストリームから利用可能になった時点で、各データサンプルの処理を開始する。
オンライン学習において、PartialIMEと古典的な非並列ニューラル計算を経験的に比較するために実験が行われる。
論文 参考訳(メタデータ) (2022-10-17T14:49:14Z) - Recipe for Fast Large-scale SVM Training: Polishing, Parallelism, and
more RAM! [0.0]
サポートベクタマシン(SVM)は、機械学習ツールボックスの標準メソッドである。
しかし、非線形カーネルSVMは、長いトレーニング時間に費やして、高い精度の予測器を提供することが多い。
本研究では,2つのアプローチを組み合わせて,超高速なデュアルSVMソルバを設計する。
論文 参考訳(メタデータ) (2022-07-03T11:51:41Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - ESAI: Efficient Split Artificial Intelligence via Early Exiting Using
Neural Architecture Search [6.316693022958222]
ディープニューラルネットワークは、多くのコンピュータビジョン関連タスクにおいて、従来の機械学習アルゴリズムよりも優れています。
大部分のデバイスは、優れたディープラーニングモデルがサーバー上のデータを解析する責任を負う、クラウドコンピューティングの方法論を活用しています。
本稿では、クラウドとオンデバイスモデルの両方を活用可能な、IoTデバイスにデプロイするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T04:47:53Z) - Reservoir Stack Machines [77.12475691708838]
メモリ拡張ニューラルネットワークは、情報ストレージを必要とするタスクをサポートするために、明示的なメモリを備えたリカレントニューラルネットワークを備える。
本研究では,全ての決定論的文脈自由言語を確実に認識できるモデルである貯水池スタックマシンを導入する。
以上の結果から, 貯水池スタックマシンは, 訓練データよりも長い試験シーケンスでもゼロ誤差を達成できることがわかった。
論文 参考訳(メタデータ) (2021-05-04T16:50:40Z) - Network Support for High-performance Distributed Machine Learning [17.919773898228716]
学習ノード(計算を行う)と情報ノード(データを提供する)の両方をキャプチャするシステムモデルを提案する。
次に,学習課題を完了させるために,学習ノードと情報ノードが協調して行うべき課題と,実行すべきイテレーション数を選択する問題を定式化する。
我々はDoubleClimbというアルゴリズムを考案し、1+1/|I|競合解を見つけることができる。
論文 参考訳(メタデータ) (2021-02-05T19:38:57Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。