論文の概要: Selective Task offloading for Maximum Inference Accuracy and Energy
efficient Real-Time IoT Sensing Systems
- arxiv url: http://arxiv.org/abs/2402.16904v1
- Date: Sat, 24 Feb 2024 18:46:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 19:10:30.821134
- Title: Selective Task offloading for Maximum Inference Accuracy and Energy
efficient Real-Time IoT Sensing Systems
- Title(参考訳): 最大推論精度と省エネルギーリアルタイムIoTセンシングシステムのための選択タスクオフロード
- Authors: Abdelkarim Ben Sada, Amar Khelloufi, Abdenacer Naouri, Huansheng Ning
and Sahraoui Dhelim
- Abstract要約: 多次元クナップサック問題の解法として,軽量ハイブリッド遺伝的アルゴリズム(LGSTO)を提案する。
実験の結果,LGSTOは最高速のスキームよりも3倍高速であった。
- 参考スコア(独自算出の注目度): 3.0748861313823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent advancements in small-size inference models facilitated AI
deployment on the edge. However, the limited resource nature of edge devices
poses new challenges especially for real-time applications. Deploying multiple
inference models (or a single tunable model) varying in size and therefore
accuracy and power consumption, in addition to an edge server inference model,
can offer a dynamic system in which the allocation of inference models to
inference jobs is performed according to the current resource conditions.
Therefore, in this work, we tackle the problem of selectively allocating
inference models to jobs or offloading them to the edge server to maximize
inference accuracy under time and energy constraints. This problem is shown to
be an instance of the unbounded multidimensional knapsack problem which is
considered a strongly NP-hard problem. We propose a lightweight hybrid genetic
algorithm (LGSTO) to solve this problem. We introduce a termination condition
and neighborhood exploration techniques for faster evolution of populations. We
compare LGSTO with the Naive and Dynamic programming solutions. In addition to
classic genetic algorithms using different reproduction methods including
NSGA-II, and finally we compare to other evolutionary methods such as Particle
swarm optimization (PSO) and Ant colony optimization (ACO). Experiment results
show that LGSTO performed 3 times faster than the fastest comparable schemes
while producing schedules with higher average accuracy.
- Abstract(参考訳): 小規模推論モデルの最近の進歩は、エッジへのAIデプロイメントを促進した。
しかし、エッジデバイスの限られたリソース特性は、特にリアルタイムアプリケーションに新しい課題をもたらす。
複数の推論モデル(または単一のチューナブルモデル)をサイズに応じて展開することにより、エッジサーバ推論モデルに加えて、現在のリソース条件に応じて推論モデルが推論ジョブに割り当てられる動的なシステムを提供できる。
そこで本研究では,時間とエネルギー制約下での推論精度を最大化するために,推論モデルをジョブに選択的に割り当てたり,エッジサーバにオフロードする問題に取り組む。
この問題は、np-ハード問題と見なされる非有界多次元ナップサック問題の例であることが示されている。
この問題を解決するために,軽量ハイブリッド遺伝的アルゴリズム(LGSTO)を提案する。
人口の急速な発展をめざすため,終末条件と近隣探査手法を導入する。
我々はLGSTOとNaiveおよびDynamicプログラミングソリューションを比較した。
NSGA-IIを含む異なる再現法を用いた古典的遺伝的アルゴリズムに加えて、最終的にParticle Swarm Optimization(PSO)やAnt Colon Optimization(ACO)といった他の進化的手法と比較した。
実験の結果,lgstoは平均精度の高いスケジュールを作成できる一方で,最も高速な方式よりも3倍高速であった。
関連論文リスト
- MARS: Unleashing the Power of Variance Reduction for Training Large Models [56.47014540413659]
Adam、Adam、およびそれらの変種のような大規模な勾配アルゴリズムは、この種のトレーニングの開発の中心となっている。
本稿では,事前条件付き勾配最適化手法と,スケールドモーメント手法による分散低減を両立させる枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-15T18:57:39Z) - Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Multi-Objective Optimization for Sparse Deep Multi-Task Learning [0.0]
重み付きチェビシェフスキャラライゼーションを用いたディープニューラルネットワーク(DNN)のトレーニングのための多目的最適化アルゴリズムを提案する。
本研究の目的は,DNNモデルの持続可能性問題,特にDeep Multi-Taskモデルに焦点をあてることである。
論文 参考訳(メタデータ) (2023-08-23T16:42:27Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Learning to Fit Morphable Models [12.469605679847085]
学習最適化の最近の進歩の上に構築し、古典的なレバンス・マルカルトアルゴリズムに触発された更新ルールを提案する。
本稿では,頭部装着装置による3次元体表面推定問題と2次元ランドマークによる顔の嵌合性に対するニューラルネットワークの有効性を示す。
論文 参考訳(メタデータ) (2021-11-29T18:59:53Z) - Surrogate-Assisted Genetic Algorithm for Wrapper Feature Selection [4.89253144446913]
複数レベルの近似やサロゲートを利用する新しい多段階特徴選択フレームワークを提案する。
実験の結果, SAGAはラッパーGAの3倍の速度で, ほぼ最適解に到達できることがわかった。
論文 参考訳(メタデータ) (2021-11-17T12:33:18Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Fast and stable MAP-Elites in noisy domains using deep grids [1.827510863075184]
Deep-Grid MAP-ElitesはMAP-Elitesアルゴリズムの変種である。
この単純なアプローチは、適合性最適化の観点から競争性能を達成しつつ、動作記述子のノイズに対する耐性が著しく高いことを示す。
論文 参考訳(メタデータ) (2020-06-25T08:47:23Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - GeneCAI: Genetic Evolution for Acquiring Compact AI [36.04715576228068]
ディープニューラルネットワーク(DNN)は、より高い推論精度を達成するために、より複雑なアーキテクチャへと進化している。
モデル圧縮技術は、リソース制限されたモバイルデバイスにそのような計算集約的なアーキテクチャを効率的に展開するために利用することができる。
本稿では,階層ごとの圧縮ハイパーパラメータのチューニング方法を自動的に学習する新しい最適化手法であるGeneCAIを紹介する。
論文 参考訳(メタデータ) (2020-04-08T20:56:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。