論文の概要: Partitioning Cloud-based Microservices (via Deep Learning)
- arxiv url: http://arxiv.org/abs/2109.14569v1
- Date: Wed, 29 Sep 2021 17:08:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 16:36:31.504326
- Title: Partitioning Cloud-based Microservices (via Deep Learning)
- Title(参考訳): クラウドベースのマイクロサービスの分割(ディープラーニングによる)
- Authors: Rahul Yedida, Rahul Krishna, Anup Kalia, Tim Menzies, Jin Xiao, Maja
Vukovic
- Abstract要約: クラウドベースのソフトウェアには多くの利点がある。
サービスが多くの独立したコンポーネントに分割されると、更新が容易になります。
ピーク時の需要では、クラウドサービスのスケーリングが簡単になる(CPUを増やせばよい)。
- 参考スコア(独自算出の注目度): 16.38781304440842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cloud-based software has many advantages. When services are divided into many
independent components, they are easier to update. Also, during peak demand, it
is easier to scale cloud services (just hire more CPUs). Hence, many
organizations are partitioning their monolithic enterprise applications into
cloud-based microservices.
Recently there has been much work using machine learning to simplify this
partitioning task. Despite much research, no single partitioning method can be
recommended as generally useful. More specifically, those prior solutions are
"brittle''; i.e. if they work well for one kind of goal in one dataset, then
they can be sub-optimal if applied to many datasets and multiple goals.
In order to find a generally useful partitioning method, we propose DEEPLY.
This new algorithm extends the CO-GCN deep learning partition generator with
(a) a novel loss function and (b) some hyper-parameter optimization. As shown
by our experiments, DEEPLY generally outperforms prior work (including CO-GCN,
and others) across multiple datasets and goals. To the best of our knowledge,
this is the first report in SE of such stable hyper-parameter optimization.
To aid reuse of this work, DEEPLY is available on-line at
https://bit.ly/2WhfFlB.
- Abstract(参考訳): クラウドベースのソフトウェアには多くの利点がある。
サービスが多くの独立したコンポーネントに分割されると、更新が容易になります。
また、ピーク時の需要では、クラウドサービスのスケーリングが簡単になる(CPUを増やせばよい)。
そのため、モノリシックなエンタープライズアプリケーションをクラウドベースのマイクロサービスに分割している組織は多い。
最近、このパーティショニングタスクを単純化するために機械学習を使った作業が数多く行われている。
多くの研究にもかかわらず、一般的なものとして単一の分割法は推奨できない。
より具体的には、これらの以前のソリューションは"脆い';すなわち、1つのデータセットの1つの目標に対してうまく機能するなら、多くのデータセットや複数の目標に適用すれば、サブ最適となる。
一般に有用なパーティショニング方法を見つけるために,我々は深く提案する。
このアルゴリズムはCO-GCN深層学習分割生成器を拡張する
(a)新規損失機能、及び
(b)ハイパーパラメータの最適化。
私たちの実験で示されているように、DEEPLYは一般的に、複数のデータセットや目標に対して以前の作業(CO-GCNなど)より優れています。
我々の知る限りでは、このような安定なハイパーパラメータ最適化のSEにおける最初のレポートである。
この作業の再利用を支援するために、https://bit.ly/2whfflb.com/で深くオンラインで利用できる。
関連論文リスト
- Hierarchical Resource Partitioning on Modern GPUs: A Reinforcement Learning Approach [1.076745840431781]
本稿では,階層的分割のセットアップと,与えられたジョブ集合からの協調スケジューリンググループの選択を包括的に協調する手法を提案する。
これにより、時間共有スケジューリングに比べて最大スループットが1.87倍向上する。
論文 参考訳(メタデータ) (2024-05-14T16:40:06Z) - Get more for less: Principled Data Selection for Warming Up Fine-Tuning in LLMs [18.242110417706]
この研究は、膨大なラベルのないオープンデータから事前訓練された言語モデルへの活用と選択に焦点を当てている。
特定の条件下での微調整タスクに対するこのアプローチの最適性を示す。
提案手法は既存の手法よりもはるかに高速で,GPU時間内に数百万のサンプルにスケールアップする。
論文 参考訳(メタデータ) (2024-05-05T00:08:00Z) - Partitioning Distributed Compute Jobs with Reinforcement Learning and
Graph Neural Networks [58.720142291102135]
大規模な機械学習モデルは、幅広い分野に進歩をもたらしている。
これらのモデルの多くは、単一のマシンでトレーニングするには大きすぎるため、複数のデバイスに分散する必要がある。
スループットやブロッキングレートといったユーザクリティカルな指標に対して,並列化の最大化が準最適であることを示す。
論文 参考訳(メタデータ) (2023-01-31T17:41:07Z) - AutoShard: Automated Embedding Table Sharding for Recommender Systems [54.82606459574231]
これは、ニューラルコストモデルを使用して、マルチテーブルコストを直接予測するものです。
AutoShardは、数百のテーブルを数秒で効率的にシャーディングできる。
当社のアルゴリズムはMetaプロダクション環境にデプロイされています。
論文 参考訳(メタデータ) (2022-08-12T17:48:01Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - The cluster structure function [1.1168121941015012]
クラスタ構造関数は、パーティションの部品数を、その部品による良いモデルであることの欠陥に関連する値にマッピングする。
最適なクラスタリングは、クラスタ構造関数を最小限にするために選ばれたものである。
実データを用いた例を挙げる: MNIST手書き桁と、幹細胞研究で用いられる実細胞のセグメント化である。
論文 参考訳(メタデータ) (2022-01-04T16:05:59Z) - Accelerating GAN training using highly parallel hardware on public cloud [0.3694429692322631]
本研究は,GAN(Geneversarative Adversarial Network)を並列環境でトレーニングする,さまざまなタイプのクラウドサービスについて検討する。
複数のGPUとGoogle Processing Units(TPU)上でのトレーニングプロセスを並列化する。
トレーニングプロセスの線形スピードアップは、物理結果の観点から、ほとんどの性能を保ちながら得られる。
論文 参考訳(メタデータ) (2021-11-08T16:59:15Z) - How to distribute data across tasks for meta-learning? [59.608652082495624]
タスクごとのデータポイントの最適な数は予算に依存しますが、それは大きな予算のためのユニークな一定の値に収束します。
この結果から,データ収集の簡便かつ効率的な手順が示唆された。
論文 参考訳(メタデータ) (2021-03-15T15:38:47Z) - Low-Resource Domain Adaptation for Compositional Task-Oriented Semantic
Parsing [85.35582118010608]
タスク指向のセマンティックパーシングは仮想アシスタントの重要なコンポーネントである。
近年のディープラーニングの進歩は、より複雑なクエリを解析するいくつかのアプローチを可能にしている。
そこで本研究では,教師付きニューラルネットワークを10倍の精度で高速化する手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T17:47:53Z) - Joint Parameter-and-Bandwidth Allocation for Improving the Efficiency of
Partitioned Edge Learning [73.82875010696849]
機械学習アルゴリズムは、人工知能(AI)モデルをトレーニングするために、ネットワークエッジにデプロイされる。
本稿では,パラメータ(計算負荷)割り当てと帯域幅割り当ての新しい共同設計に焦点を当てる。
論文 参考訳(メタデータ) (2020-03-10T05:52:15Z) - MREC: a fast and versatile framework for aligning and matching point
clouds with applications to single cell molecular data [9.127253863263773]
我々は,データセット間のマッチングを計算するための分解アルゴリズムであるMRECを紹介し,研究する。
このフレームワークは、マッチングの品質の絶対値を用いて、パーティショニング手順やマッチングアルゴリズムを含むパラメータの最適化をサポートする。
単細胞分子データの解析において生じる多数のアライメント問題に適用することにより、いつうまく機能するかを記述し、その柔軟性とパワーを実証する手順を解析する。
論文 参考訳(メタデータ) (2020-01-06T17:02:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。