論文の概要: Combining Cloud and Mobile Computing for Machine Learning
- arxiv url: http://arxiv.org/abs/2402.04880v2
- Date: Fri, 23 Feb 2024 22:17:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 18:41:12.926354
- Title: Combining Cloud and Mobile Computing for Machine Learning
- Title(参考訳): 機械学習のためのクラウドとモバイルの融合
- Authors: Ruiqi Xu and Tianchi Zhang
- Abstract要約: モデルセグメンテーションはユーザエクスペリエンスを改善するためのソリューションだと考えている。
この部門は、ユーザの待ち時間を短縮するだけでなく、クラウドのワークロードを最適化するための微調整も可能であることを示しています。
- 参考スコア(独自算出の注目度): 2.595189746033637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although the computing power of mobile devices is increasing, machine
learning models are also growing in size. This trend creates problems for
mobile devices due to limitations like their memory capacity and battery life.
While many services, like ChatGPT and Midjourney, run all the inferences in the
cloud, we believe a flexible and fine-grained task distribution is more
desirable. In this work, we consider model segmentation as a solution to
improving the user experience, dividing the computation between mobile devices
and the cloud in a way that offloads the compute-heavy portion of the model
while minimizing the data transfer required. We show that the division not only
reduces the wait time for users but can also be fine-tuned to optimize the
workloads of the cloud. To achieve that, we design a scheduler that collects
information about network quality, client device capability, and job
requirements, making decisions to achieve consistent performance across a range
of devices while reducing the work the cloud needs to perform.
- Abstract(参考訳): モバイルデバイスのコンピューティング能力は増大しているが、機械学習モデルのサイズも拡大している。
この傾向は、メモリ容量やバッテリー寿命などの制限により、モバイルデバイスに問題を引き起こす。
ChatGPTやMidjourneyといった多くのサービスがクラウド上ですべての推論を実行していますが、柔軟できめ細かいタスク分散の方が望ましいと考えています。
本研究では,データ転送を最小化しつつ,計算量の多いモデルをオフロードする方法で,モバイルデバイスとクラウド間の計算を分割し,ユーザエクスペリエンスを向上させるためのソリューションとしてモデルセグメンテーションを検討する。
この部門は、ユーザの待ち時間を短縮するだけでなく、クラウドのワークロードを最適化するために微調整することもできる。
そこで我々は,ネットワーク品質,クライアントデバイス能力,ジョブ要求に関する情報を収集するスケジューラを設計し,クラウドが実行すべき作業を減らすとともに,デバイス全体の一貫したパフォーマンスを実現するための意思決定を行う。
関連論文リスト
- Managing Bandwidth: The Key to Cloud-Assisted Autonomous Driving [73.55745551827229]
自動運転車のようなリアルタイム制御システムにクラウドを頼らなければならない、と私たちは主張する。
時間に敏感な計算と遅延クリティカルな計算の一部をクラウドにオフロードする機会を特定します。
論文 参考訳(メタデータ) (2024-10-21T17:32:36Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - ECLM: Efficient Edge-Cloud Collaborative Learning with Continuous
Environment Adaptation [47.35179593006409]
動的エッジ環境に対する高速モデル適応のためのエッジクラウド協調学習フレームワークECLMを提案する。
その結果,ECLM はモデルの性能(例えば 18.89% の精度向上)と資源効率(例えば 7.12 倍の通信コスト削減)を,動的エッジ環境への適応において著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-11-18T14:10:09Z) - Mobile-Cloud Inference for Collaborative Intelligence [3.04585143845864]
ディープラーニングモデル推論の高速化と省エネの必要性が高まっている。
歴史的に、モバイルデバイス上で実行されるモデルは、クラウド上でしか実行できない大規模な最先端の研究モデルと比較して、小さく、よりシンプルである。
クラウドのみの推論では、ネットワーク帯域幅の消費の増加やレイテンシの向上といった欠点がある。
別のアプローチとして、共有モバイルクラウド推論がある。
論文 参考訳(メタデータ) (2023-06-24T14:22:53Z) - MetaNetwork: A Task-agnostic Network Parameters Generation Framework for
Improving Device Model Generalization [65.02542875281233]
そこで本研究では,デバイス上でのトレーニングを伴わずに,クラウドから適応的なデバイスモデルパラメータを生成するための,MetaNetworkという新しいタスク非依存フレームワークを提案する。
MetaGeneratorは、サンプルからモデルパラメータへのマッピング関数を学習するために設計されており、デバイスからクラウドにアップロードされたサンプルに基づいて、適応パラメータをデバイスに生成および配信することができる。
MetaStabilizerは、MetaGeneratorの振動を減らし、収束を加速し、トレーニングと推論の両方でモデルパフォーマンスを改善することを目的としている。
論文 参考訳(メタデータ) (2022-09-12T13:26:26Z) - On-Device Training Under 256KB Memory [62.95579393237751]
本稿では,256KBのメモリでデバイス上でのトレーニングを可能にするアルゴリズム・システム協調設計フレームワークを提案する。
私たちのフレームワークは256KBと1MBのFlashで畳み込みニューラルネットワークのデバイス上での小さなトレーニングを可能にする最初のソリューションです。
論文 参考訳(メタデータ) (2022-06-30T17:59:08Z) - Optimizing Neural Network for Computer Vision task in Edge Device [0.0]
エッジデバイス自体に畳み込みニューラルネットワークをデプロイします。
エッジデバイスの計算コストは、モデル内のパラメータの浮動小数点精度を下げることによって削減される。
これにより、エッジデバイスはニューラルネットワークから自身で予測できる。
論文 参考訳(メタデータ) (2021-10-02T12:25:18Z) - Device-Cloud Collaborative Learning for Recommendation [50.01289274123047]
集中型クラウドモデルにより「数千人のモデルを持つ何千人もの人」を効率的に実現する新しいMetaPatch学習手法をデバイス側で提案します。
数十億の更新されたパーソナライズされたデバイスモデルにより、集中型クラウドモデルを更新する"モデルオーバーモデル"蒸留アルゴリズム、すなわちMoMoDistillを提案する。
論文 参考訳(メタデータ) (2021-04-14T05:06:59Z) - Shared Mobile-Cloud Inference for Collaborative Intelligence [35.103437828235826]
ニューラルモデル推論のための共有モバイルクラウド推論手法を提案する。
この戦略は、推論レイテンシ、エネルギー消費、ネットワーク帯域使用量を改善することができる。
伝送前に特徴テンソルを圧縮することにより、さらなる性能向上を実現することができる。
論文 参考訳(メタデータ) (2020-02-01T07:12:01Z) - Runtime Deep Model Multiplexing for Reduced Latency and Energy
Consumption Inference [6.896677899938492]
本稿では、最小の計算資源を消費するモデルを呼び出す軽量なニューラルマルチプレクサを設計する学習アルゴリズムを提案する。
モバイルデバイスは、提案されたアルゴリズムを使用して、簡単な入力をローカルに推論しながら、ハード入力をクラウドにオフロードすることができる。
論文 参考訳(メタデータ) (2020-01-14T23:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。