論文の概要: PhiNets: a scalable backbone for low-power AI at the edge
- arxiv url: http://arxiv.org/abs/2110.00337v1
- Date: Fri, 1 Oct 2021 12:03:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:43:49.903956
- Title: PhiNets: a scalable backbone for low-power AI at the edge
- Title(参考訳): PhiNets:エッジでの低消費電力AIのためのスケーラブルなバックボーン
- Authors: Francesco Paissan, Alberto Ancilotto, and Elisabetta Farella
- Abstract要約: PhiNetsは、リソース制約のあるプラットフォーム上でのディープラーニングベースの画像処理に最適化された、スケーラブルなバックボーンである。
PhiNetは計算コスト、動作メモリ、パラメータメモリを分離するために特別に設計された逆残差ブロックに基づいている。
STM32H743マイクロコントローラをベースとしたプロトタイプノードへのアプローチを実証する。
- 参考スコア(独自算出の注目度): 2.7910505923792646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the Internet of Things era, where we see many interconnected and
heterogeneous mobile and fixed smart devices, distributing the intelligence
from the cloud to the edge has become a necessity. Due to limited computational
and communication capabilities, low memory and limited energy budget, bringing
artificial intelligence algorithms to peripheral devices, such as the end-nodes
of a sensor network, is a challenging task and requires the design of
innovative methods. In this work, we present PhiNets, a new scalable backbone
optimized for deep-learning-based image processing on resource-constrained
platforms. PhiNets are based on inverted residual blocks specifically designed
to decouple the computational cost, working memory, and parameter memory, thus
exploiting all the available resources. With a YoloV2 detection head and Simple
Online and Realtime Tracking, the proposed architecture has achieved the
state-of-the-art results in (i) detection on the COCO and VOC2012 benchmarks,
and (ii) tracking on the MOT15 benchmark. PhiNets reduce the parameter count of
87% to 93% with respect to previous state-of-the-art models (EfficientNetv1,
MobileNetv2) and achieve better performance with lower computational cost.
Moreover, we demonstrate our approach on a prototype node based on a STM32H743
microcontroller (MCU) with 2MB of internal Flash and 1MB of RAM and achieve
power requirements in the order of 10 mW. The code for the PhiNets is publicly
available on GitHub.
- Abstract(参考訳): モノのインターネット(Internet of Things,モノのインターネット)の時代は、多くの相互接続型で異質なモバイルおよび固定されたスマートデバイスが登場し、クラウドからエッジへインテリジェンスを分散させる必要がある。
限られた計算能力と通信能力、低メモリと限られたエネルギー予算のため、センサーネットワークのエンドノードのような周辺機器に人工知能アルゴリズムをもたらすことは困難な課題であり、革新的な方法の設計を必要とする。
本稿では,リソース制約のあるプラットフォーム上で,ディープラーニングベースの画像処理に最適化された新しいスケーラブルなバックボーンであるphinetsを提案する。
PhiNetは計算コスト、動作メモリ、パラメータメモリを分離するために特別に設計された逆残差ブロックに基づいており、利用可能なリソースをすべて活用している。
YoloV2検出ヘッドとSimple Online and Realtime Trackingにより、提案アーキテクチャは最先端の成果を得た。
i)COCOおよびVOC2012ベンチマークにおける検出、及び
(ii)MOT15ベンチマークの追跡。
PhiNets は従来の最先端モデル (EfficientNetv1, MobileNetv2) に対して 87% から 93% のパラメータ数を削減し、計算コストを削減した。
さらに,2MBの内部フラッシュと1MBのRAMを備えたSTM32H743マイクロコントローラ(MCU)をベースとしたプロトタイプノードを試作し,10mWの電力要求を実現する。
PhiNetsのコードはGitHubで公開されている。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - SpikeBottleNet: Spike-Driven Feature Compression Architecture for Edge-Cloud Co-Inference [0.86325068644655]
エッジクラウドコ推論システムのための新しいアーキテクチャであるSpikeBottleNetを提案する。
SpikeBottleNetはスパイクニューロンモデルを統合し、エッジデバイスのエネルギー消費を大幅に削減する。
論文 参考訳(メタデータ) (2024-10-11T09:59:21Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - HeteroEdge: Addressing Asymmetry in Heterogeneous Collaborative
Autonomous Systems [1.274065448486689]
2台の無人地上車両(UGV)と2台のNVIDIA Jetsonデバイスからなるテストベッドの自己適応最適化フレームワークを提案する。
このフレームワークは、異種ノード上の複数のタスク(ストレージ、処理、計算、送信、推論)を同時に効率的に管理する。
入力された画像フレームの圧縮とマスキング、類似したフレームの識別、および最適化のための境界条件を得るためにプロファイリング装置を含む。
論文 参考訳(メタデータ) (2023-05-05T02:43:16Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Implementation of a Binary Neural Network on a Passive Array of Magnetic
Tunnel Junctions [2.917306244908168]
我々は、MTJの受動配列に基づくニューラルネットワークハードウェア推論を実証するために、MTJの低消費電力と本質的に二元的動作を利用する。
デバイスサイズが広い15 x 15 MTJアレイにおいて,ネットワークパラメータを適切に調整することで,ソフトウェア等価精度を最大95.3 %まで向上する。
論文 参考訳(メタデータ) (2021-12-16T19:11:29Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Q-EEGNet: an Energy-Efficient 8-bit Quantized Parallel EEGNet
Implementation for Edge Motor-Imagery Brain--Machine Interfaces [16.381467082472515]
運動画像脳-機械インタフェース(MI-BMI)は、人間の脳と機械間の直接的かつアクセス可能なコミュニケーションをプロミットする。
脳波信号を分類するためのディープラーニングモデルが登場した。
これらのモデルは、メモリと計算要求のため、エッジデバイスの限界を超えることが多い。
論文 参考訳(メタデータ) (2020-04-24T12:29:03Z) - Lightweight Residual Densely Connected Convolutional Neural Network [18.310331378001397]
畳み込みニューラルネットワークの深い監督, 効率的な勾配流, 特徴再利用能力を保証するために, 軽量な高密度連結ブロックを提案する。
提案手法は,特別なハードウェア・ソフトウェア機器を使わずに,トレーニングと推論のコストを低減させる。
論文 参考訳(メタデータ) (2020-01-02T17:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。