論文の概要: Optimising Resource Management for Embedded Machine Learning
- arxiv url: http://arxiv.org/abs/2105.03608v1
- Date: Sat, 8 May 2021 06:10:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 10:16:59.288910
- Title: Optimising Resource Management for Embedded Machine Learning
- Title(参考訳): 組み込み機械学習のためのリソース管理の最適化
- Authors: Lei Xun, Long Tran-Thanh, Bashir M Al-Hashimi, Geoff V. Merrett
- Abstract要約: 機械学習推論は、モバイルおよび組み込みプラットフォーム上でローカルに実行されつつある。
異種マルチコアシステムにおけるオンラインリソース管理手法を提案する。
- 参考スコア(独自算出の注目度): 23.00896228073755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning inference is increasingly being executed locally on mobile
and embedded platforms, due to the clear advantages in latency, privacy and
connectivity. In this paper, we present approaches for online resource
management in heterogeneous multi-core systems and show how they can be applied
to optimise the performance of machine learning workloads. Performance can be
defined using platform-dependent (e.g. speed, energy) and platform-independent
(accuracy, confidence) metrics. In particular, we show how a Deep Neural
Network (DNN) can be dynamically scalable to trade-off these various
performance metrics. Achieving consistent performance when executing on
different platforms is necessary yet challenging, due to the different
resources provided and their capability, and their time-varying availability
when executing alongside other workloads. Managing the interface between
available hardware resources (often numerous and heterogeneous in nature),
software requirements, and user experience is increasingly complex.
- Abstract(参考訳): マシンラーニングの推論は、レイテンシやプライバシ、接続性に明確なメリットがあるため、モバイルおよび組み込みプラットフォーム上でのローカル実行がますます増えている。
本稿では、異種マルチコアシステムにおけるオンラインリソース管理のアプローチを提案し、機械学習ワークロードの性能を最適化する方法を示す。
パフォーマンスはプラットフォームに依存して定義することができる(例)。
スピード、エネルギー)とプラットフォームに依存しない(正確性、信頼性)メトリクス。
特に、ディープニューラルネットワーク(dnn)が動的にスケーラブルになり、これらの様々なパフォーマンス指標をトレードオフできることを示す。
異なるプラットフォーム上で実行する場合の一貫したパフォーマンスを実現するには、提供されるリソースとその能力、他のワークロードと並行して実行する場合の時間的不安定性など、非常に困難である。
利用可能なハードウェアリソース間のインターフェース管理(本質的には多種多様なハードウェアリソース)、ソフトウェア要件、ユーザエクスペリエンスはますます複雑になっています。
関連論文リスト
- Deep Learning Inference on Heterogeneous Mobile Processors: Potentials and Pitfalls [22.49750818224266]
リアルタイムなインテリジェントなアプリケーションのために、リソース制約のあるモバイルデバイスに計算集約型ディープラーニング(DL)モデルをデプロイする需要が高まっている。
モバイルデバイスは、異種プロセッサ間の並列実行を通じてDL推論を加速する可能性を秘めている。
本稿では、異種モバイルプロセッサ上での並列DL推論に関連する機能と課題を評価するための総合的研究について述べる。
論文 参考訳(メタデータ) (2024-05-03T04:47:23Z) - Adaptive Resource Allocation for Virtualized Base Stations in O-RAN with
Online Learning [60.17407932691429]
基地局(vBS)を備えたオープンラジオアクセスネットワークシステムは、柔軟性の向上、コスト削減、ベンダーの多様性、相互運用性のメリットを提供する。
本研究では,予期せぬ「混み合う」環境下であっても,効率的なスループットとvBSエネルギー消費のバランスをとるオンライン学習アルゴリズムを提案する。
提案手法は, 課題のある環境においても, 平均最適性ギャップをゼロにすることで, サブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-09-04T17:30:21Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Learnability with Time-Sharing Computational Resource Concerns [65.268245109828]
本稿では,学習理論における計算資源の影響を考慮した理論的枠組みを提案する。
このフレームワークは、入ってくるデータストリームが潜在的に無限であるようなストリーム学習に自然に適用できる。
これはまた、インテリジェントなスーパーコンピュータオペレーティングシステムの設計に対する理論的視点を提供するかもしれない。
論文 参考訳(メタデータ) (2023-05-03T15:54:23Z) - Singularity: Planet-Scale, Preemptible, Elastic Scheduling of AI
Workloads [12.117736592836506]
私たちは、ディープラーニングトレーニングと推論ワークロードのためのMicrosoftのグローバル分散スケジューリングサービスであるSingularityを紹介します。
Singularityの中心は、透過的にプリエンプションし、弾力的にディープラーニングワークロードをスケール可能な、新しいワークロード対応スケジューラである。
Singularityによる結果の効率性と信頼性の向上は、定常状態の性能に無視できない影響で達成されることを示す。
論文 参考訳(メタデータ) (2022-02-16T04:02:10Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - SINGA-Easy: An Easy-to-Use Framework for MultiModal Analysis [18.084628500554462]
SINGA-Easyは、トレーニング段階での分散ハイパーパラメータチューニング、推論段階での動的計算コスト制御、モデル説明によるマルチメディアコンテンツとの直感的なユーザインタラクションを提供する新しいディープラーニングフレームワークである。
マルチモーダリティデータ解析アプリケーションのトレーニングと展開に関する実験により,このフレームワークは動的推論負荷に適応可能であることが示された。
論文 参考訳(メタデータ) (2021-08-03T08:39:54Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Clairvoyant Prefetching for Distributed Machine Learning I/O [9.490118207943192]
I/Oは、特にクラウドやスーパーコンピュータのような分散環境において、機械学習トレーニングの大きなボトルネックとして現れています。
我々は、新しい機械学習I/O、HDMLPを作成し、I/Oボトルネックに取り組む。
HDMLPは、最先端のアプローチよりも優れたパフォーマンスを提供する、使いやすい、柔軟でスケーラブルなソリューションを提供します。
論文 参考訳(メタデータ) (2021-01-21T17:21:42Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z) - AutoScale: Optimizing Energy Efficiency of End-to-End Edge Inference
under Stochastic Variance [11.093360539563657]
AutoScaleは、カスタム設計の強化学習アルゴリズムに基づいて構築された、適応的で軽量な実行スケーリングエンジンである。
本稿では,エッジでの高精度かつエネルギー効率の高いディープラーニング推論を実現するためのAutoScaleを提案する。
論文 参考訳(メタデータ) (2020-05-06T00:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。