論文の概要: EdgeOL: Efficient in-situ Online Learning on Edge Devices
- arxiv url: http://arxiv.org/abs/2401.16694v1
- Date: Tue, 30 Jan 2024 02:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 16:33:45.531946
- Title: EdgeOL: Efficient in-situ Online Learning on Edge Devices
- Title(参考訳): EdgeOL: エッジデバイス上でのオンライン学習の効率性
- Authors: Sheng Li, Geng Yuan, Yawen Wu, Yue Dai, Chao Wu, Alex K. Jones,
Jingtong Hu, Yanzhi Wang, Xulong Tang
- Abstract要約: EdgeOLは、推論精度、微調整実行時間、エネルギー効率を最適化するエッジオンライン学習フレームワークである。
実験結果から,EdgeOLは全体の微調整実行時間を平均82%削減し,エネルギー消費量を74%削減し,オンライン学習戦略よりも平均推定精度を1.70%向上させることがわかった。
- 参考スコア(独自算出の注目度): 47.19771423065623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emerging applications, such as robot-assisted eldercare and object
recognition, generally employ deep learning neural networks (DNNs) models and
naturally require: i) handling streaming-in inference requests and ii) adapting
to possible deployment scenario changes. Online model fine-tuning is widely
adopted to satisfy these needs. However, fine-tuning involves significant
energy consumption, making it challenging to deploy on edge devices. In this
paper, we propose EdgeOL, an edge online learning framework that optimizes
inference accuracy, fine-tuning execution time, and energy efficiency through
both inter-tuning and intra-tuning optimizations. Experimental results show
that, on average, EdgeOL reduces overall fine-tuning execution time by 82%,
energy consumption by 74%, and improves average inference accuracy by 1.70%
over the immediate online learning strategy.
- Abstract(参考訳): ロボット支援老人介護や物体認識といった新しい応用は、一般的にディープラーニングニューラルネットワーク(DNN)モデルを採用し、自然に要求される。
一 ストリーミングイン推論要求の処理及び
ii) 可能な展開シナリオの変更に対応すること。
これらのニーズを満たすために、オンラインモデル微調整が広く採用されている。
しかし、微調整にはかなりのエネルギー消費が伴うため、エッジデバイスへのデプロイは困難である。
本稿では、エッジオンライン学習フレームワークedgeolを提案する。このフレームワークは、チューニング間最適化とチューニング内最適化の両方を通じて、推論精度、微調整実行時間、エネルギー効率を最適化する。
実験結果から,EdgeOLは全体の微調整実行時間を82%削減し,エネルギー消費量を74%削減し,オンライン学習戦略よりも平均推定精度を1.70%向上した。
関連論文リスト
- EdgeRL: Reinforcement Learning-driven Deep Learning Model Inference Optimization at Edge [2.8946323553477704]
本稿では,Advantage Actor-Critic (A2C) Reinforcement Learning (RL)アプローチを用いて,バランスを打とうとするEdgeRLフレームワークを提案する。
我々はEdgeRLフレームワークの利点を,端末の省エネ,推論精度の向上,エンドツーエンドの推論遅延低減の観点から評価した。
論文 参考訳(メタデータ) (2024-10-16T04:31:39Z) - Neural Horizon Model Predictive Control -- Increasing Computational Efficiency with Neural Networks [0.0]
予測制御をモデル化するための機械学習支援手法を提案する。
安全保証を維持しつつ,問題地平線の一部を近似することを提案する。
提案手法は,迅速な制御応答を必要とするアプリケーションを含む,幅広いアプリケーションに適用可能である。
論文 参考訳(メタデータ) (2024-08-19T08:13:37Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Efficient Post-Training Augmentation for Adaptive Inference in
Heterogeneous and Distributed IoT Environments [4.343246899774834]
Early Exit Neural Networks (EENN)は、ニューラルネットワークのデプロイメントの効率を高めるソリューションを提供する。
本稿では,既存のモデルをEENNに変換することに焦点を当てた自動拡張フローを提案する。
本フレームワークはEENNアーキテクチャを構築し,そのサブグラフをハードウェアターゲットにマップし,その決定機構を構成する。
論文 参考訳(メタデータ) (2024-03-12T08:27:53Z) - Fractional Deep Reinforcement Learning for Age-Minimal Mobile Edge
Computing [11.403989519949173]
本研究は,AOI( Age-of-Information)によって測定された計算集約更新の時系列に焦点をあてる。
我々は,AoIのタスク更新とオフロードポリシを分断形式で共同で最適化する方法について検討する。
実験の結果,提案アルゴリズムは,いくつかの非フラクタルベンチマークと比較して平均AoIを57.6%削減できることがわかった。
論文 参考訳(メタデータ) (2023-12-16T11:13:40Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z) - NASOA: Towards Faster Task-oriented Online Fine-tuning with a Zoo of
Models [90.6485663020735]
事前訓練されたImageNetモデルからの微調整は、様々なコンピュータビジョンタスクに対して単純で効果的で一般的なアプローチである。
我々は,タスク指向のより高速な微調整を実現するため,NASOAというニューラルアーキテクチャ検索とオンライン適応フレームワークを共同で提案する。
論文 参考訳(メタデータ) (2021-08-07T12:03:14Z) - Active Learning for Deep Neural Networks on Edge Devices [0.0]
本稿では,エッジデバイス上でのニューラルネットワークの実用的な能動学習問題を定式化する。
本稿では,この問題に対処するための一般的なタスクに依存しないフレームワークを提案する。
我々は,実生活シナリオをシミュレートする実践的な環境で,分類タスクとオブジェクト検出タスクの両方に対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-06-21T03:55:33Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。