論文の概要: Pareto Optimal Benchmarking of AI Models on ARM Cortex Processors for Sustainable Embedded Systems
- arxiv url: http://arxiv.org/abs/2602.17508v1
- Date: Thu, 19 Feb 2026 16:21:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.20518
- Title: Pareto Optimal Benchmarking of AI Models on ARM Cortex Processors for Sustainable Embedded Systems
- Title(参考訳): 持続可能な組込みシステムのためのARMコーテックスプロセッサ上でのAIモデルのパレート最適ベンチマーク
- Authors: Pranay Jain, Maximilian Kasper, Göran Köber, Axel Plinge, Dominik Seuß,
- Abstract要約: この研究は、浮動小数点演算(FLOP)と推論時間とのほぼ直線的相関を強調し、計算要求を推定するための信頼性のある指標を提供する。
エネルギー消費とモデル精度のトレードオフのバランスをとる方法を示し、持続可能性の損なうことなく、AIアプリケーションがパフォーマンス要件を満たすことを保証する。
この作業は開発者に対して洞察を提供し、現実のアプリケーションで高いパフォーマンスを提供するエネルギー効率のよいAIシステムの設計を指導する。
- 参考スコア(独自算出の注目度): 1.4462553564289973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents a practical benchmarking framework for optimizing artificial intelligence (AI) models on ARM Cortex processors (M0+, M4, M7), focusing on energy efficiency, accuracy, and resource utilization in embedded systems. Through the design of an automated test bench, we provide a systematic approach to evaluate across key performance indicators (KPIs) and identify optimal combinations of processor and AI model. The research highlights a nearlinear correlation between floating-point operations (FLOPs) and inference time, offering a reliable metric for estimating computational demands. Using Pareto analysis, we demonstrate how to balance trade-offs between energy consumption and model accuracy, ensuring that AI applications meet performance requirements without compromising sustainability. Key findings indicate that the M7 processor is ideal for short inference cycles, while the M4 processor offers better energy efficiency for longer inference tasks. The M0+ processor, while less efficient for complex AI models, remains suitable for simpler tasks. This work provides insights for developers, guiding them to design energy-efficient AI systems that deliver high performance in realworld applications.
- Abstract(参考訳): 本研究は,ARM Cortexプロセッサ(M0+,M4,M7)上での人工知能(AI)モデルを最適化するための実用的なベンチマークフレームワークを提案する。
自動テストベンチの設計を通じて、キーパフォーマンス指標(KPI)を横断的に評価し、プロセッサとAIモデルの最適な組み合わせを特定するための体系的なアプローチを提供する。
この研究は、浮動小数点演算(FLOP)と推論時間とのほぼ直線的相関を強調し、計算要求を推定するための信頼性のある指標を提供する。
Pareto分析を用いて、エネルギー消費とモデル精度のトレードオフのバランスをとる方法を示し、AIアプリケーションが持続可能性を損なうことなく性能要件を満たすことを保証する。
主要な発見は、M7プロセッサが短い推論サイクルに最適であることを示しているが、M4プロセッサはより長い推論タスクに対してより良いエネルギー効率を提供する。
M0+プロセッサは複雑なAIモデルでは効率が良くないが、単純なタスクには相変わらず適している。
この作業は開発者に対して洞察を提供し、現実のアプリケーションで高いパフォーマンスを提供するエネルギー効率のよいAIシステムの設計を指導する。
関連論文リスト
- What Artificial Intelligence can do for High-Performance Computing systems? [0.0]
本稿では、機械学習(ML)や最適化を含む人工(AI)が、運用用HPCシステムの効率をどのように改善するかを評価する。
2019年から2025年までの約1,800の出版物は、事前に定義された包括的・排他的基準を用いて手動で審査された。
74の"AI for HPC"論文は、パフォーマンス推定、パフォーマンス最適化、スケジューリング、サロゲートモデリング、障害検出、言語モデルに基づく自動化の6つのアプリケーション領域にまとめられ、グループ化された。
論文 参考訳(メタデータ) (2026-01-03T19:25:23Z) - Smart but Costly? Benchmarking LLMs on Functional Accuracy and Energy Efficiency [5.771786260272727]
我々は、エネルギー効率と機能的正当性の統一的なスケールでコード言語モデルのベンチマークを行うためのフレームワークBRACEを提案する。
同心性漸進的レーティングサークル(CIRC)と予測レーティング(OTER)の2つの評価手法を提案する。
我々の分析では、文法ベースで構文的に正しい出力を生成するように強制されないため、コード要約タスクにおいて、一般的にモデルの性能が向上することを明らかにした。
論文 参考訳(メタデータ) (2025-11-10T23:44:48Z) - Metrics and evaluations for computational and sustainable AI efficiency [26.52588349722099]
現在のアプローチでは全体像の提供に失敗し、システムの比較と最適化が難しい。
本稿では,計算および環境メトリクスを統合するAIモデル推論のための統一的再現可能な方法論を提案する。
本フレームワークは, 遅延を系統的に測定し, スループット, エネルギー消費, 位置調整二酸化炭素排出量を計測することにより, 実用的で炭素を意識した評価を行う。
論文 参考訳(メタデータ) (2025-10-18T03:30:15Z) - EfficientLLM: Efficiency in Large Language Models [64.3537131208038]
大規模言語モデル(LLM)は大きな進歩を導いてきたが、その増加とコンテキストウィンドウは計算、エネルギー、金銭的コストを禁止している。
本稿では,新しいベンチマークであるEfficientLLMを紹介する。
論文 参考訳(メタデータ) (2025-05-20T02:27:08Z) - Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [58.50944604905037]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Synergistic Development of Perovskite Memristors and Algorithms for Robust Analog Computing [53.77822620185878]
本稿では,ペロブスカイト・メムリスタの製作を同時に最適化し,ロバストなアナログDNNを開発するための相乗的手法を提案する。
BO誘導ノイズインジェクションを利用したトレーニング戦略であるBayesMultiを開発した。
我々の統合されたアプローチは、より深くより広いネットワークでのアナログコンピューティングの使用を可能にし、最大100倍の改善を実現します。
論文 参考訳(メタデータ) (2024-12-03T19:20:08Z) - An Energy-Aware Approach to Design Self-Adaptive AI-based Applications
on the Edge [42.462246527457594]
我々は、自己適応型AIベースのアプリケーションの設計と展開にエネルギーを意識したアプローチを提案する。
本稿では,メタヒューリスティックな探索手順でシステムに自己適応できる構成の集合を決定する問題に対処する。
その結果、我々の自己適応型アプリケーションは、最大81%のエネルギーを節約し、2%から6%の精度で、非適応型ベースライン構成を上回ります。
論文 参考訳(メタデータ) (2023-08-31T09:33:44Z) - AIPerf: Automated machine learning as an AI-HPC benchmark [17.57686674304368]
自動機械学習(AutoML)を利用したエンドツーエンドベンチマークスイートを提案する。
アルゴリズムを並列かつ柔軟な方法で実装し、多様なシステムにおける効率性と最適化の可能性を保証する。
フレキシブルなワークロードと単一のメトリックによって、私たちのベンチマークはAI-HPCのスケールとランク付けが容易になります。
論文 参考訳(メタデータ) (2020-08-17T08:06:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。