論文の概要: PlatformX: An End-to-End Transferable Platform for Energy-Efficient Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2510.08993v1
- Date: Fri, 10 Oct 2025 04:22:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.110238
- Title: PlatformX: An End-to-End Transferable Platform for Energy-Efficient Neural Architecture Search
- Title(参考訳): PlatformX: エネルギー効率の良いニューラルネットワーク検索のためのエンドツーエンドトランスファー可能なプラットフォーム
- Authors: Xiaolong Tu, Dawei Chen, Kyungtae Han, Onur Altintas, Haoxin Wang,
- Abstract要約: エッジデバイスに適した効率的なディープニューラルネットワーク(DNN)を設計するための強力なツールとして、ハードウェア・アウェア・ニューラル・アーキテクチャ(HW-NAS)が登場した。
制約を克服するために,完全に自動化され,転送可能なHW-NASフレームワークであるPlatformXを提案する。
- 参考スコア(独自算出の注目度): 10.727973227148114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hardware-Aware Neural Architecture Search (HW-NAS) has emerged as a powerful tool for designing efficient deep neural networks (DNNs) tailored to edge devices. However, existing methods remain largely impractical for real-world deployment due to their high time cost, extensive manual profiling, and poor scalability across diverse hardware platforms with complex, device-specific energy behavior. In this paper, we present PlatformX, a fully automated and transferable HW-NAS framework designed to overcome these limitations. PlatformX integrates four key components: (i) an energy-driven search space that expands conventional NAS design by incorporating energy-critical configurations, enabling exploration of high-efficiency architectures; (ii) a transferable kernel-level energy predictor across devices and incrementally refined with minimal on-device samples; (iii) a Pareto-based multi-objective search algorithm that balances energy and accuracy to identify optimal trade-offs; and (iv) a high-resolution runtime energy profiling system that automates on-device power measurement using external monitors without human intervention. We evaluate PlatformX across multiple mobile platforms, showing that it significantly reduces search overhead while preserving accuracy and energy fidelity. It identifies models with up to 0.94 accuracy or as little as 0.16 mJ per inference, both outperforming MobileNet-V2 in accuracy and efficiency. Code and tutorials are available at github.com/amai-gsu/PlatformX.
- Abstract(参考訳): HW-NAS(Hardware-Aware Neural Architecture Search)は、エッジデバイスに適した効率的なディープニューラルネットワーク(DNN)を設計するための強力なツールとして登場した。
しかし、既存の手法は、高コスト、広範囲な手動プロファイリング、複雑でデバイス固有のエネルギー挙動を持つ様々なハードウェアプラットフォームにおけるスケーラビリティの低さなど、実世界のデプロイには実用的でないままである。
本稿では、これらの制限を克服するために、完全に自動化され、転送可能なHW-NASフレームワークであるPlatformXを提案する。
PlatformXは4つの重要なコンポーネントを統合している。
一 エネルギークリティカルな構成を取り入れて従来のNAS設計を拡張し、高効率な建築の探索を可能にするエネルギー駆動探索空間
(ii) デバイス間で伝達可能なカーネルレベルのエネルギー予測器であって,最小限のオンデバイスサンプルで漸進的に精製すること。
三 最適トレードオフを特定するためのエネルギーと精度のバランスをとるパレートに基づく多目的探索アルゴリズム
(4)人間の介入なしに外部モニターを用いてデバイス上の電力測定を自動化する高分解能ランタイムエネルギープロファイリングシステム。
複数のモバイルプラットフォームにまたがるPlatformXを評価し,精度とエネルギー効率を保ちながら,検索オーバーヘッドを大幅に低減することを示した。
最大0.94の精度または1推論あたり0.16mJのモデルを特定し、どちらもMobileNet-V2を精度と効率で上回っている。
コードとチュートリアルはgithub.com/amai-gsu/PlatformXで入手できる。
関連論文リスト
- Hardware-Aware Feature Extraction Quantisation for Real-Time Visual Odometry on FPGA Platforms [0.0]
特徴点の検出と記述が可能な教師なしアーキテクチャの組込み実装を提案する。
FPGA System-on-Chip (SoC) プラットフォーム,具体的にはAMD/Xilinx Zynq UltraScale+ にソリューションを実装した。
これにより、640 x 480ピクセルの画像を最大54fpsで処理することができ、現場での最先端のソリューションよりも優れています。
論文 参考訳(メタデータ) (2025-07-10T16:37:20Z) - ECORE: Energy-Conscious Optimized Routing for Deep Learning Models at the Edge [17.74343318260183]
ECOREは、複数の動的ルーティング戦略を統合するフレームワークである。
ECOREは、物体の特性に基づいてエネルギー効率と検出性能のバランスをとる。
その結果,提案したコンテキスト対応ルーティング手法は,エネルギー消費と遅延をそれぞれ35%,遅延を49%削減できることがわかった。
論文 参考訳(メタデータ) (2025-07-08T14:16:14Z) - Benchmarking Energy and Latency in TinyML: A Novel Method for Resource-Constrained AI [0.0]
この研究は、エネルギーと遅延の測定を統合する代替のベンチマーク手法を導入する。
設定を評価するために、ニューラルネットワークを実行するためのNPUを含むSTM32N6 MCUをテストした。
その結果,コア電圧とクロック周波数の低減により,前処理と後処理の効率が向上することが示唆された。
論文 参考訳(メタデータ) (2025-05-21T15:12:14Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Quasar-ViT: Hardware-Oriented Quantization-Aware Architecture Search for Vision Transformers [56.37495946212932]
視覚変換器(ViT)は、畳み込みニューラルネットワーク(CNN)と比較して、コンピュータビジョンタスクにおいて優れた精度を示す。
ハードウェア指向の量子化対応アーキテクチャ検索フレームワークであるQuasar-ViTを提案する。
論文 参考訳(メタデータ) (2024-07-25T16:35:46Z) - Multi-objective Differentiable Neural Architecture Search [58.67218773054753]
我々は,ユーザの好みをトレードオフ性能やハードウェアメトリクスにエンコードするNASアルゴリズムを提案する。
提案手法は,既存のMOO NAS手法を,定性的に異なる検索空間やデータセットの広い範囲で性能良くする。
論文 参考訳(メタデータ) (2024-02-28T10:09:04Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - Searching for Efficient Neural Architectures for On-Device ML on Edge
TPUs [10.680700357879601]
ニューラルアーキテクチャサーチ(NAS)は、オンデバイスMLアクセラレーターによって提供される高い計算スループットを効率的に活用するために救助される。
既存のNASフレームワークには、複数のタスクと異なるターゲットプラットフォームへのスケーリングにおいて、いくつかの実用的な制限がある。
i)モデルコスト評価、探索空間設計、および様々なデバイス上でのMLタスクを迅速にターゲットするアルゴリズムと、(ii)グループ畳み込みに基づく逆ボトルネック(IBN)による探索空間を分離するニューラルネットワークアーキテクチャ。
論文 参考訳(メタデータ) (2022-04-09T00:35:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。