論文の概要: Cost Effective MLaaS Federation: A Combinatorial Reinforcement Learning
Approach
- arxiv url: http://arxiv.org/abs/2204.13971v1
- Date: Fri, 29 Apr 2022 09:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 15:08:30.884327
- Title: Cost Effective MLaaS Federation: A Combinatorial Reinforcement Learning
Approach
- Title(参考訳): コスト効率のよいMLaaSフェデレーション:A Combinatorial Reinforcement Learning Approach
- Authors: Shuzhao Xie, Yuan Xue, Yifei Zhu, and Zhi Wang
- Abstract要約: 異なるMLを連携させることで、分析性能をさらに改善できます。
異なるMLからの生意気な集約の結果は、かなりの一時的なコストを発生させるだけでなく、最適以下のパフォーマンス向上につながる可能性がある。
本稿では,MLプロバイダの適切な選択を統一し,最高の分析性能を実現するためのフレームワークであるArmolを提案する。
- 参考スコア(独自算出の注目度): 9.50492686145041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advancement of deep learning techniques, major cloud providers and
niche machine learning service providers start to offer their cloud-based
machine learning tools, also known as machine learning as a service (MLaaS), to
the public. According to our measurement, for the same task, these MLaaSes from
different providers have varying performance due to the proprietary datasets,
models, etc. Federating different MLaaSes together allows us to improve the
analytic performance further. However, naively aggregating results from
different MLaaSes not only incurs significant momentary cost but also may lead
to sub-optimal performance gain due to the introduction of possible
false-positive results. In this paper, we propose Armol, a framework to
federate the right selection of MLaaS providers to achieve the best possible
analytic performance. We first design a word grouping algorithm to unify the
output labels across different providers. We then present a deep combinatorial
reinforcement learning based-approach to maximize the accuracy while minimizing
the cost. The predictions from the selected providers are then aggregated
together using carefully chosen ensemble strategies. The real-world
trace-driven evaluation further demonstrates that Armol is able to achieve the
same accuracy results with $67\%$ less inference cost.
- Abstract(参考訳): ディープラーニング技術の進歩により、主要なクラウドプロバイダとニッチな機械学習サービスプロバイダは、機械学習・アズ・ア・サービス(mlaas)として知られるクラウドベースの機械学習ツールを一般に提供し始める。
私たちの測定によると、同じタスクに対して、異なるプロバイダのMLaaSは、プロプライエタリなデータセットやモデルなどによって、さまざまなパフォーマンスを持っています。
異なるMLaaSをまとめることで、分析性能をさらに改善できます。
しかしながら、異なるmlaaseからの結果をナイーブに集約することは、重要な瞬間的コストをもたらすだけでなく、偽陽性の可能性があるため、最適以下のパフォーマンス向上につながる可能性がある。
本稿では,mlaasプロバイダの適切な選択をフェデレートし,最適な分析性能を達成するためのフレームワークであるarmolを提案する。
まず、異なるプロバイダ間で出力ラベルを統一するワードグループ化アルゴリズムを設計する。
次に,コストを最小化しながら精度を最大化するために,深層組合せ強化学習に基づくアプローチを提案する。
選択したプロバイダからの予測は、慎重に選択されたアンサンブル戦略を使用して集約される。
実世界のトレース駆動評価は、Armolが6,7\%$の推論コストで同じ精度を達成できることをさらに示している。
関連論文リスト
- Routing to the Expert: Efficient Reward-guided Ensemble of Large
Language Models [69.51130760097818]
本研究では,報奨誘導型ルーティング手法であるZooterを提案する。
さまざまなドメインやタスクについて26のサブセットを持つ総合的なベンチマークコレクション上でZooterを評価する。
論文 参考訳(メタデータ) (2023-11-15T04:40:43Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - ezDPS: An Efficient and Zero-Knowledge Machine Learning Inference
Pipeline [2.0813318162800707]
我々は,新しい効率的かつゼロ知識の機械学習推論スキームであるezDPSを提案する。
ezDPSはzkMLパイプラインで、データを複数のステージで高精度に処理する。
ezDPSは,全測定値における一般的な回路ベース手法よりも1~3桁効率が高いことを示す。
論文 参考訳(メタデータ) (2022-12-11T06:47:28Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Active Learning at the ImageNet Scale [43.595076693347835]
本研究では,画像ネット上でのアクティブラーニング(AL)と事前学習(SSP)の組み合わせについて検討する。
学習者が選択したクラス不均衡なサンプルから,小型の玩具データセットのパフォーマンスがImageNetのパフォーマンスを表すものではないことが判明した。
本稿では、ランダムサンプリングを一貫して上回る、単純でスケーラブルなALアルゴリズムであるBa balanced Selection (BASE)を提案する。
論文 参考訳(メタデータ) (2021-11-25T02:48:51Z) - Towards Demystifying Serverless Machine Learning Training [19.061432528378788]
本稿では、サーバーレスインフラストラクチャ上で分散機械学習トレーニングを体系的に比較研究する。
サーバレスインフラストラクチャを選択する際に考慮すべきコスト/パフォーマンストレードオフをキャプチャする分析モデルを開発する。
論文 参考訳(メタデータ) (2021-05-17T13:19:23Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - FrugalML: How to Use ML Prediction APIs More Accurately and Cheaply [36.94826820536239]
我々はFrugalMLを提案する。FrugalMLは、異なるデータ上で各APIの長所と短所を共同で学習する、原則化されたフレームワークである。
理論解析により,FrugalMLを効率よくするために,定式化における自然の空間性を利用することが可能であることが示唆された。
さまざまなタスクにおいて、FrugalMLは、最高の単一APIの精度を一致させながら、最大90%のコスト削減を実現し、最高のAPIのコストを一致させながら、最大5%の精度を達成できる。
論文 参考訳(メタデータ) (2020-06-12T23:43:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。