論文の概要: AutoML for Multilayer Perceptron and FPGA Co-design
- arxiv url: http://arxiv.org/abs/2009.06156v1
- Date: Mon, 14 Sep 2020 02:37:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:15:51.073259
- Title: AutoML for Multilayer Perceptron and FPGA Co-design
- Title(参考訳): 多層パーセプトロンのためのAutoMLとFPGA共設計
- Authors: Philip Colangelo, Oren Segal, Alex Speicher, Martin Margala
- Abstract要約: 最先端のニューラルネットワークアーキテクチャ(NNAs)は、ハードウェアで効率的な設計と実装が難しい。
NNAの自動設計に関する最近の研究の多くは、畳み込みネットワークと画像認識に焦点を当てている。
我々は、任意のデータセットを入力として取り出し、最適化されたNNAとハードウェア設計を自動的に生成できる汎用多層パーセプトロン(MLP)フローを開発し、テストする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art Neural Network Architectures (NNAs) are challenging to
design and implement efficiently in hardware. In the past couple of years, this
has led to an explosion in research and development of automatic Neural
Architecture Search (NAS) tools. AutomML tools are now used to achieve state of
the art NNA designs and attempt to optimize for hardware usage and design. Much
of the recent research in the auto-design of NNAs has focused on convolution
networks and image recognition, ignoring the fact that a significant part of
the workload in data centers is general-purpose deep neural networks. In this
work, we develop and test a general multilayer perceptron (MLP) flow that can
take arbitrary datasets as input and automatically produce optimized NNAs and
hardware designs. We test the flow on six benchmarks. Our results show we
exceed the performance of currently published MLP accuracy results and are
competitive with non-MLP based results. We compare general and common GPU
architectures with our scalable FPGA design and show we can achieve higher
efficiency and higher throughput (outputs per second) for the majority of
datasets. Further insights into the design space for both accurate networks and
high performing hardware shows the power of co-design by correlating accuracy
versus throughput, network size versus accuracy, and scaling to
high-performance devices.
- Abstract(参考訳): 最先端のニューラルネットワークアーキテクチャ(NNAs)は、ハードウェアで効率的な設計と実装が難しい。
この数年間で、自動ニューラルネットワーク検索(nas)ツールの研究と開発が爆発的に増加した。
AutomMLツールは現在、NNA設計の最先端を実現し、ハードウェアの使用と設計の最適化を試みるために使用されている。
NNAの自動設計における最近の研究の多くは、畳み込みネットワークと画像認識に焦点を当てており、データセンターのワークロードのかなりの部分は汎用的なディープニューラルネットワークであるという事実を無視している。
本研究では、任意のデータセットを入力として取り出し、最適化されたNNAとハードウェア設計を自動的に生成できる汎用多層パーセプトロン(MLP)フローの開発と試験を行う。
6つのベンチマークでフローをテストします。
その結果,現在公表されているMLPの精度よりも優れており,非MLPに基づく結果と競合することがわかった。
汎用的および一般的なGPUアーキテクチャとスケーラブルなFPGA設計を比較し、ほとんどのデータセットに対して高い効率と高いスループット(毎秒出力)を達成することができることを示す。
正確なネットワークと高性能ハードウェアの両方の設計空間に関するさらなる洞察は、スループットとスループット、ネットワークサイズと精度、高性能デバイスへのスケーリングを関連づけることで、コデザインのパワーを示す。
関連論文リスト
- Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - Open-source FPGA-ML codesign for the MLPerf Tiny Benchmark [11.575901540758574]
我々は,フィールドプログラマブルゲートアレイ(FPGA)プラットフォーム上でのTiny Inference Benchmarkの開発経験を示す。
我々は、FPGA上で最適化されたニューラルネットワークのAIハードウェアコーデックを民主化することを目的として、オープンソースのhls4mlとFINN perJを使用している。
ソリューションはシステムオンチップ(Pynq-Z2)と純粋なFPGA(Arty A7-100T)プラットフォームにデプロイされる。
論文 参考訳(メタデータ) (2022-06-23T15:57:17Z) - Towards a Design Framework for TNN-Based Neuromorphic Sensory Processing
Units [2.419276285404291]
テンポラルニューラルネットワーク(TNN)は、高エネルギー効率で脳のような感覚処理を示すニューラルネットワークをスパイクしている。
本研究は、効率的なアプリケーション固有のTNNベースのニューロモーフィックセンサ処理ユニット(NSPU)を設計するためのカスタムデザインフレームワークの開発に向けて、現在進行中の研究成果を示す。
論文 参考訳(メタデータ) (2022-05-27T21:51:05Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Algorithm and Hardware Co-design for Reconfigurable CNN Accelerator [3.1431240233552007]
ディープニューラルネットワーク(DNN)のためのアルゴリズムハードウェアの共同設計の最近の進歩は、ニューラルネットワークやハードウェア設計を自動設計する可能性を示している。
しかし、高価なトレーニングコストと時間を要するハードウェア実装のため、これは依然として困難な最適化問題である。
本稿では,新しい3相共設計フレームワークを提案する。
ネットワークとハードウェアの構成は精度が2%向上し,レイテンシが2倍26倍,エネルギー効率が8.5倍向上した。
論文 参考訳(メタデータ) (2021-11-24T20:37:50Z) - FLASH: Fast Neural Architecture Search with Hardware Optimization [7.263481020106725]
ニューラルアーキテクチャサーチ(NAS)は、効率的かつ高性能なディープニューラルネットワーク(DNN)を設計するための有望な手法である
本稿では,実ハードウェアプラットフォーム上でのDNNの精度と性能を協調的に最適化する,非常に高速なNAS手法であるFLASHを提案する。
論文 参考訳(メタデータ) (2021-08-01T23:46:48Z) - HAO: Hardware-aware neural Architecture Optimization for Efficient
Inference [25.265181492143107]
ニューラルネットワーク探索アルゴリズムの設計空間を縮小するための整数プログラミングアルゴリズムを開発する。
私たちのアルゴリズムは、フレームレート50でImageNetの72.5%のトップ-1精度を達成し、MnasNetよりも60%高速で、比較精度でFBNetよりも135%高速です。
論文 参考訳(メタデータ) (2021-04-26T17:59:29Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - NAS-Count: Counting-by-Density with Neural Architecture Search [74.92941571724525]
ニューラルアーキテクチャサーチ(NAS)を用いたカウントモデルの設計を自動化する
エンド・ツー・エンドの検索エンコーダ・デコーダアーキテクチャであるAutomatic Multi-Scale Network(AMSNet)を導入する。
論文 参考訳(メタデータ) (2020-02-29T09:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。