論文の概要: Reducing Idleness in Financial Cloud Services via Multi-objective
Evolutionary Reinforcement Learning based Load Balancer
- arxiv url: http://arxiv.org/abs/2305.03463v2
- Date: Thu, 23 Nov 2023 02:11:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 04:16:24.162962
- Title: Reducing Idleness in Financial Cloud Services via Multi-objective
Evolutionary Reinforcement Learning based Load Balancer
- Title(参考訳): 多目的進化強化学習によるロードバランサによる金融クラウドサービスのアイドルネスの低減
- Authors: Peng Yang, Laoming Zhang, Haifeng Liu, Guiying Li
- Abstract要約: ニューラルネットワークベースのスケーラブルポリシは,要求される弾力性のために,ユーザ要求をさまざまなサーバにルーティングするように設計されている。
アイドルネスの新たな目的が従来の産業ソリューションよりも130%以上削減されるだけでなく、本来の負荷分散目標自体もわずかに改善されている。
- 参考スコア(独自算出の注目度): 14.21902878831522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, various companies have started to shift their data services
from traditional data centers to the cloud. One of the major motivations is to
save on operational costs with the aid of cloud elasticity. This paper
discusses an emerging need from financial services to reduce the incidence of
idle servers retaining very few user connections, without disconnecting them
from the server side. This paper considers this need as a bi-objective online
load balancing problem. A neural network based scalable policy is designed to
route user requests to varied numbers of servers for the required elasticity.
An evolutionary multi-objective training framework is proposed to optimize the
weights of the policy. Not only is the new objective of idleness is reduced by
over 130% more than traditional industrial solutions, but the original load
balancing objective itself is also slightly improved. Extensive simulations
with both synthetic and real-world data help reveal the detailed applicability
of the proposed method to the emergent problem of reducing idleness in
financial services.
- Abstract(参考訳): 近年,さまざまな企業が,自社のデータセンタを従来型のデータセンタからクラウドに移行する動きを見せている。
主な動機の1つは、クラウドの弾力性によって運用コストを節約することである。
本稿では,サーバ側から切り離すことなく,ユーザ接続の少ないアイドルサーバの出現率を低減するための金融サービスの必要性について論じる。
本稿では、このニーズを双方向のオンライン負荷分散問題と考える。
ニューラルネットワークベースのスケーラブルポリシは,要求される弾力性のために,ユーザ要求をさまざまなサーバにルーティングするように設計されている。
政策の重み付けを最適化するために,進化的多目的学習フレームワークを提案する。
アイドルネスの新たな目的が従来の産業ソリューションよりも130%以上削減されるだけでなく、本来の負荷分散目標自体もわずかに改善されている。
合成データと実世界のデータの両方を用いた広範囲なシミュレーションは,金融サービスのアイドルネス低減に関する創発的問題に対する提案手法の詳細な適用可能性を明らかにするのに役立つ。
関連論文リスト
- Reinforcement Learning-Based Adaptive Load Balancing for Dynamic Cloud Environments [0.0]
これらの課題に対処するために,Reinforcement Learning (RL) を用いた適応型ロードバランシングフレームワークを提案する。
我々のフレームワークは、タスクを動的に再配置し、レイテンシを最小化し、サーバ間のリソース利用のバランスを確保するように設計されています。
実験の結果,提案したRLベースのロードバランサは,応答時間,資源利用量,ワークロードの変化に対する適応性などの観点から,従来のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-09-07T19:40:48Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - SpotServe: Serving Generative Large Language Models on Preemptible
Instances [64.18638174004151]
SpotServeは、プリエンプティブルインスタンスにシステムを提供する最初の分散大規模言語モデルである。
SpotServeは、既存のLLMサービスシステムと比較して、P99テールのレイテンシを2.4~9.1倍削減できることを示す。
また、SpotServeはプリエンプティブインスタンスの価格優位性を利用して、オンデマンドインスタンスのみを使用する場合と比較して54%の金銭的コストを節約できることも示しています。
論文 参考訳(メタデータ) (2023-11-27T06:31:17Z) - Fine-tuning can cripple your foundation model; preserving features may be the solution [87.35911633187204]
タスク上の概念を認識できる微調整モデルの能力は、事前訓練されたモデルに比べて大幅に低下する。
我々は、下流タスクに関連する新しい概念を学習しながら、モデルが事前学習した知識を保存できる「textitLDIFS$」という新しい微調整手法を提案する。
論文 参考訳(メタデータ) (2023-08-25T11:49:51Z) - Reconciling High Accuracy, Cost-Efficiency, and Low Latency of Inference
Serving Systems [0.0]
InfAdapterは、レイテンシSLOを満たすために、リソース割り当てでMLモデルの一連の変種を積極的に選択する。
SLO違反を減らし、業界で人気のオートスケーラと比較して、それぞれ65%と33%に値下げする。
論文 参考訳(メタデータ) (2023-04-21T11:19:49Z) - Managing Cold-start in The Serverless Cloud with Temporal Convolutional
Networks [0.0]
サーバレスクラウドは革新的なクラウドサービスモデルであり、多くのクラウド管理業務から顧客を解放します。
サーバーレスクラウドのパフォーマンスに対する大きな脅威はコールドスタートであり、顧客の要求に応えるために必要なクラウドリソースをプロビジョニングするとき、サービスプロバイダや/または顧客に受け入れられないコストが発生する。
本稿では、サーバーレスクラウドスタックのインフラストラクチャおよびファンクションレベルにおけるコールドスタート問題に対処する、新しい低結合・高結合アンサンブルポリシーを提案する。
論文 参考訳(メタデータ) (2023-04-01T21:54:22Z) - PECCO: A Profit and Cost-oriented Computation Offloading Scheme in
Edge-Cloud Environment with Improved Moth-flame Optimisation [22.673319784715172]
エッジクラウド計算のオフロードは、クラウドセンタの負担を軽減するための、有望なソリューションである。
そこで本研究では,元のMoth-flame Optimiserの欠陥に対処する改良型Moth-flame optimiser PECCO-MFIを提案する。
論文 参考訳(メタデータ) (2022-08-09T23:26:42Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations [57.46134660974256]
クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
論文 参考訳(メタデータ) (2022-05-13T08:24:43Z) - FreeTickets: Accurate, Robust and Efficient Deep Ensemble by Training
with Dynamic Sparsity [74.58777701536668]
我々は、疎い畳み込みニューラルネットワークの性能を、ネットワークの高密度な部分よりも大きなマージンで向上させることができるFreeTicketsの概念を紹介した。
本研究では, ダイナミックな間隔を持つ2つの新しい効率的なアンサンブル手法を提案し, スパーストレーニング過程において, 多数の多様かつ正確なチケットを「無償」で撮影する。
論文 参考訳(メタデータ) (2021-06-28T10:48:20Z) - AI-based Resource Allocation: Reinforcement Learning for Adaptive
Auto-scaling in Serverless Environments [0.0]
近年、サーバーレスコンピューティングはクラウドコンピューティングモデルの魅力的な新しいパラダイムとして現れています。
商用およびオープンソースのサーバレスコンピューティングプラットフォームに共通するアプローチは、ワークロードベースの自動スケーリングである。
本稿では、サーバーレスフレームワークにおける要求ベース自動スケーリングに対する強化学習アプローチの適用性について検討する。
論文 参考訳(メタデータ) (2020-05-29T06:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。