論文の概要: EARL: Energy-Aware Optimization of Liquid State Machines for Pervasive AI
- arxiv url: http://arxiv.org/abs/2601.05205v1
- Date: Thu, 08 Jan 2026 18:31:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.335531
- Title: EARL: Energy-Aware Optimization of Liquid State Machines for Pervasive AI
- Title(参考訳): EARL: 汎用AIのための液体機械のエネルギーを考慮した最適化
- Authors: Zain Iqbal, Lorenzo Valerio,
- Abstract要約: 広く普及するAIは、厳しいリソース制約の下で低レイテンシとエネルギー効率の計算を提供するデバイス上での学習システムに依存している。
液体状態機械は、広範およびニューロモルフィックシステムにおける低消費電力時間処理に有望なアプローチを提供する。
本研究は,ベイズ最適化と適応型強化学習に基づく選択ポリシーを統合したエネルギー対応強化学習フレームワークEARLを提案する。
- 参考スコア(独自算出の注目度): 0.3867363075280543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pervasive AI increasingly depends on on-device learning systems that deliver low-latency and energy-efficient computation under strict resource constraints. Liquid State Machines (LSMs) offer a promising approach for low-power temporal processing in pervasive and neuromorphic systems, but their deployment remains challenging due to high hyperparameter sensitivity and the computational cost of traditional optimization methods that ignore energy constraints. This work presents EARL, an energy-aware reinforcement learning framework that integrates Bayesian optimization with an adaptive reinforcement learning based selection policy to jointly optimize accuracy and energy consumption. EARL employs surrogate modeling for global exploration, reinforcement learning for dynamic candidate prioritization, and an early termination mechanism to eliminate redundant evaluations, substantially reducing computational overhead. Experiments on three benchmark datasets demonstrate that EARL achieves 6 to 15 percent higher accuracy, 60 to 80 percent lower energy consumption, and up to an order of magnitude reduction in optimization time compared to leading hyperparameter tuning frameworks. These results highlight the effectiveness of energy-aware adaptive search in improving the efficiency and scalability of LSMs for resource-constrained on-device AI applications.
- Abstract(参考訳): 広く普及するAIは、厳しいリソース制約の下で低レイテンシとエネルギー効率の計算を提供するデバイス上での学習システムに依存している。
LSM(Liquid State Machines)は、広汎かつニューロモルフィックなシステムにおいて、低消費電力の時間的処理に対して有望なアプローチを提供するが、高パラメータ感度とエネルギー制約を無視した従来の最適化手法の計算コストのため、その展開は依然として困難である。
本研究では、ベイズ最適化と適応的強化学習に基づく選択ポリシーを統合し、精度とエネルギー消費を協調的に最適化するエネルギー対応強化学習フレームワークEARLを提案する。
EARLは、グローバル探索のための代理モデル、動的候補優先順位付けのための強化学習、冗長な評価を排除し、計算オーバーヘッドを大幅に削減する早期終了メカニズムを採用している。
3つのベンチマークデータセットの実験では、EARLは6~15%の精度でエネルギー消費を60~80%削減し、主要なハイパーパラメータチューニングフレームワークと比較して最適化時間を大幅に短縮した。
これらの結果は、リソース制約されたオンデバイスAIアプリケーションにおいて、LSMの効率性とスケーラビリティを向上させるための、エネルギー対応適応探索の有効性を強調している。
関連論文リスト
- Optimized Cloud Resource Allocation Using Genetic Algorithms for Energy Efficiency and QoS Assurance [0.0]
本稿では,遺伝的アルゴリズムによる仮想マシンの配置と統合のためのアプローチを提案する。
提案手法は,リアルタイムのワークロード変動に基づいて動的にVM割り当てを調整する。
実験の結果,エネルギー消費,VMマイグレーション,SLA違反率,実行時間の顕著な削減が示された。
論文 参考訳(メタデータ) (2025-04-24T15:45:40Z) - A Non-Invasive Load Monitoring Method for Edge Computing Based on MobileNetV3 and Dynamic Time Regulation [2.405805395043031]
機械学習とディープラーニングに基づく手法は、負荷分解精度を著しく向上させた。
これらの手法は一般に高い計算コストと膨大なメモリ要求に悩まされる。
本研究では,時間周波数領域における動的時間ウォーピング(DTW)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-22T06:43:33Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Energy-Aware Dynamic Neural Inference [39.04688735618206]
エネルギーハーベスターと有限容量エネルギーストレージを備えたオンデバイス適応型推論システムを提案する。
環境エネルギーの速度が増加するにつれて、エネルギー・信頼性を考慮した制御方式は精度を約5%向上させることが示されている。
我々は、信頼性を意識し、認識できないコントローラを理論的に保証する原則的なポリシーを導出する。
論文 参考訳(メタデータ) (2024-11-04T16:51:22Z) - AI-Driven Approaches for Optimizing Power Consumption: A Comprehensive Survey [0.0]
電力最適化が重要である主な理由は、環境効果の低減、運転コストの低減、安定的で持続可能なエネルギー供給である。
電力最適化と人工知能(AI)の統合は、エネルギーの生成、使用、分散の方法を変えるために不可欠である。
AI駆動のアルゴリズムと予測分析によって、電力使用傾向のリアルタイム監視と分析が可能になる。
論文 参考訳(メタデータ) (2024-06-22T04:42:37Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Adaptive Resource Allocation for Virtualized Base Stations in O-RAN with Online Learning [55.08287089554127]
基地局(vBS)を備えたオープンラジオアクセスネットワークシステムは、柔軟性の向上、コスト削減、ベンダーの多様性、相互運用性のメリットを提供する。
本研究では,予期せぬ「混み合う」環境下であっても,効率的なスループットとvBSエネルギー消費のバランスをとるオンライン学習アルゴリズムを提案する。
提案手法は, 課題のある環境においても, 平均最適性ギャップをゼロにすることで, サブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-09-04T17:30:21Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。