論文の概要: A parallel evolutionary algorithm to optimize dynamic memory managers in embedded systems
- arxiv url: http://arxiv.org/abs/2407.09555v1
- Date: Fri, 28 Jun 2024 15:47:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 13:08:55.951586
- Title: A parallel evolutionary algorithm to optimize dynamic memory managers in embedded systems
- Title(参考訳): 組み込みシステムにおける動的メモリマネージャ最適化のための並列進化アルゴリズム
- Authors: José L. Risco-Martín, David Atienza, J. Manuel Colmenar, Oscar Garnica,
- Abstract要約: 組込みシステムにおけるDMM最適化のための新しい並列進化アルゴリズムを提案する。
我々のフレームワークは、他の最先端のアプローチと比較して86.40倍のスピードアップを実現しています。
- 参考スコア(独自算出の注目度): 4.651702738999686
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: For the last thirty years, several Dynamic Memory Managers (DMMs) have been proposed. Such DMMs include first fit, best fit, segregated fit and buddy systems. Since the performance, memory usage and energy consumption of each DMM differs, software engineers often face difficult choices in selecting the most suitable approach for their applications. This issue has special impact in the field of portable consumer embedded systems, that must execute a limited amount of multimedia applications (e.g., 3D games, video players and signal processing software, etc.), demanding high performance and extensive memory usage at a low energy consumption. Recently, we have developed a novel methodology based on genetic programming to automatically design custom DMMs, optimizing performance, memory usage and energy consumption. However, although this process is automatic and faster than state-of-the-art optimizations, it demands intensive computation, resulting in a time consuming process. Thus, parallel processing can be very useful to enable to explore more solutions spending the same time, as well as to implement new algorithms. In this paper we present a novel parallel evolutionary algorithm for DMMs optimization in embedded systems, based on the Discrete Event Specification (DEVS) formalism over a Service Oriented Architecture (SOA) framework. Parallelism significantly improves the performance of the sequential exploration algorithm. On the one hand, when the number of generations are the same in both approaches, our parallel optimization framework is able to reach a speed-up of 86.40x when compared with other state-of-the-art approaches. On the other, it improves the global quality (i.e., level of performance, low memory usage and low energy consumption) of the final DMM obtained in a 36.36% with respect to two well-known general-purpose DMMs and two state-of-the-art optimization methodologies.
- Abstract(参考訳): 過去30年間、複数の動的メモリマネージャ(DMM)が提案されてきた。
このようなDMMには、ファーストフィット、ベストフィット、分離フィット、バディシステムが含まれる。
それぞれのDMMの性能、メモリ使用量、エネルギー消費が異なるため、ソフトウェアエンジニアはアプリケーションに最も適したアプローチを選択するのに難しい選択に直面します。
この問題は、ポータブルなコンシューマ組み込みシステムにおいて、限られた量のマルチメディアアプリケーション(例えば、3Dゲーム、ビデオプレーヤー、信号処理ソフトウェアなど)を実行し、低消費電力で高性能で広範なメモリ使用を必要とする、特別な影響を与える。
近年,DMMを自動的に設計し,性能,メモリ使用量,エネルギー消費を最適化する遺伝的プログラミングに基づく新しい手法が開発されている。
しかしながら、このプロセスは、最先端の最適化よりも自動化され、高速であるが、集中的な計算を必要とするため、時間を要する。
したがって、並列処理は、新しいアルゴリズムを実装するだけでなく、同時に多くのソリューションを探索するのに非常に有用である。
本稿では、サービス指向アーキテクチャ(SOA)フレームワーク上の離散イベント仕様(DEVS)形式に基づく、組み込みシステムにおけるDMM最適化のための新しい並列進化アルゴリズムを提案する。
並列性はシーケンシャルな探索アルゴリズムの性能を大幅に向上させる。
一方、両手法で世代数が異なる場合、並列最適化フレームワークは他の最先端手法と比較して86.40倍の高速化を実現することができる。
他方では、2つのよく知られた汎用DMMと2つの最先端最適化手法に関して、36.36%で得られた最終DMMのグローバル品質(性能レベル、低メモリ使用量、低エネルギー消費)を改善する。
関連論文リスト
- EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,新しいパイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法に比べて,プリフィルスループットが平均21%向上していることが判明した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - PIM-Opt: Demystifying Distributed Optimization Algorithms on a Real-World Processing-In-Memory System [21.09681871279162]
大規模データセットに対するモダン機械学習(ML)トレーニングは、時間を要する作業量である。
最適化アルゴリズムであるGradient Descent (SGD) は、その効率性、単純さ、一般化性能に頼っている。
プロセッサ中心のアーキテクチャは、MLトレーニングワークロードの実行中に低パフォーマンスと高エネルギー消費に悩まされる。
Processing-In-Memory(PIM)は、データ移動のボトルネックを軽減するための有望なソリューションである。
論文 参考訳(メタデータ) (2024-04-10T17:00:04Z) - Extreme Compression of Large Language Models via Additive Quantization [59.3122859349777]
我々のアルゴリズムは、AQLMと呼ばれ、情報検索のための古典的な加算量子化(AQ)アプローチを一般化する。
トークン生成のためのAQLMの高速GPUおよびCPU実装を提供しており、最適化されたFP16実装を高速にマッチングまたは性能良くすることができる。
論文 参考訳(メタデータ) (2024-01-11T18:54:44Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Evolutionary Design of the Memory Subsystem [2.378428291297535]
本稿では,メモリサブシステム全体の最適化を,単一の方法論として統合した3つのアプローチで解決する。
そこで本研究では,メモリシミュレータとプロファイリングツールを組み合わせた進化的アルゴリズムを提案する。
また、我々の提案をよく知られたベンチマークアプリケーションを用いて評価する実験的な経験も提供する。
論文 参考訳(メタデータ) (2023-03-07T10:45:51Z) - RMM: Reinforced Memory Management for Class-Incremental Learning [102.20140790771265]
クラスインクリメンタルラーニング(CIL)は、厳格な記憶予算の下で分類器を訓練する。
既存のメソッドは静的およびアドホックな戦略を使ってメモリ割り当てを行うが、これはしばしば準最適である。
本稿では,段階的な段階と異なるオブジェクトクラスに最適化された動的メモリ管理戦略を提案する。
論文 参考訳(メタデータ) (2023-01-14T00:07:47Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z) - Heterogeneous Data-Centric Architectures for Modern Data-Intensive
Applications: Case Studies in Machine Learning and Databases [9.927754948343326]
Processing-in-Memory(PIM)は、現代のアプリケーションにおけるデータ移動のボトルネックを軽減する、有望な実行パラダイムである。
本稿では,2つの現代的なデータ集約型アプリケーションに対して,PIMパラダイムの活用方法を示す。
論文 参考訳(メタデータ) (2022-05-29T13:43:17Z) - Integrate Lattice-Free MMI into End-to-End Speech Recognition [87.01137882072322]
音声認識(ASR)研究において、識別基準はDNN-HMMシステムにおいて優れた性能を達成している。
このモチベーションにより、差別的基準の採用は、エンドツーエンド(E2E)のASRシステムの性能を高めることを約束している。
これまでの研究は、最小ベイズリスク(MBR、差別基準の一つ)をE2E ASRシステムに導入してきた。
本研究では,他の広く使われている識別基準であるLF-MMIをE2Eに統合する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-29T14:32:46Z) - Continual Learning Approach for Improving the Data and Computation
Mapping in Near-Memory Processing System [3.202860612193139]
ページと計算再マッピングによるデータ配置とリソース活用を最適化する人工知能メモリマッピング方式であるAIMMを提案する。
AIMMはニューラルネットワークを使用して、強化学習アルゴリズムを使用して訓練された実行中にほぼ最適なマッピングを実現します。
本研究では,AIMMが単一および複数プログラムシナリオにおけるベースラインNMP性能を最大70%と50%向上させたことを評価した。
論文 参考訳(メタデータ) (2021-04-28T09:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。