論文の概要: Image Classification on Accelerated Neural Networks
- arxiv url: http://arxiv.org/abs/2203.11081v1
- Date: Mon, 21 Mar 2022 16:03:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 20:15:36.328690
- Title: Image Classification on Accelerated Neural Networks
- Title(参考訳): 加速ニューラルネットワークの画像分類
- Authors: Ilkay Sikdokur, Inci Baytas, Arda Yurdakul
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、画像分類アプリケーションにおいて最も頻繁に使用されるディープラーニング手法の1つである。
本稿では,FPGAのパワーを用いたアクセラレーション設計を基本CNNモデルに適用する。
このFPGA設計は、最先端のディープラーニングプラットフォームのパフォーマンスを上回っているので、結果は大いに励まされる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For image classification problems, various neural network models are commonly
used due to their success in yielding high accuracies. Convolutional Neural
Network (CNN) is one of the most frequently used deep learning methods for
image classification applications. It may produce extraordinarily accurate
results with regard to its complexity. However, the more complex the model is
the longer it takes to train. In this paper, an acceleration design that uses
the power of FPGA is given for a basic CNN model which consists of one
convolutional layer and one fully connected layer for the training phase of the
fully connected layer. Nonetheless, inference phase is also accelerated
automatically due to the fact that training phase includes inference. In this
design, the convolutional layer is calculated by the host computer and the
fully connected layer is calculated by an FPGA board. It should be noted that
the training of convolutional layer is not taken into account in this design
and is left for future research. The results are quite encouraging as this FPGA
design tops the performance of some of the state-of-the-art deep learning
platforms such as Tensorflow on the host computer approximately 2 times in both
training and inference.
- Abstract(参考訳): 画像分類問題では、高い精度を得ることに成功したため、様々なニューラルネットワークモデルが一般的に使用される。
畳み込みニューラルネットワーク(CNN)は、画像分類アプリケーションにおいて最も頻繁に使用されるディープラーニング手法の1つである。
複雑さに関して非常に正確な結果を生み出す可能性がある。
しかし、モデルが複雑になるほど、訓練に要する時間が長くなる。
本稿では,FPGAのパワーを利用する加速度設計を,一層の畳み込み層と完全連結層のトレーニングフェーズのための一層の完全連結層からなる基本CNNモデルに対して与える。
それでも、トレーニングフェーズに推論が含まれているため、推論フェーズも自動的に加速される。
この設計では、畳み込み層をホストコンピュータで計算し、完全に連結された層をFPGA基板で計算する。
ただし、この設計では畳み込み層の訓練は考慮されず、今後の研究に残されている点に注意が必要である。
このFPGA設計は、ホストコンピュータ上のTensorflowのような最先端のディープラーニングプラットフォームの性能を、トレーニングと推論の両方で約2倍に向上させる。
関連論文リスト
- Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Efficient Implementation of a Multi-Layer Gradient-Free Online-Trainable
Spiking Neural Network on FPGA [0.31498833540989407]
ODESAは、グラデーションを使わずに、エンド・ツー・エンドの多層オンラインローカル教師ありトレーニングを行う最初のネットワークである。
本研究は,ネットワークアーキテクチャと重みとしきい値のオンライントレーニングを,大規模ハードウェア上で効率的に実施可能であることを示す。
論文 参考訳(メタデータ) (2023-05-31T00:34:15Z) - A Gradient Boosting Approach for Training Convolutional and Deep Neural
Networks [0.0]
グラディエントブースティング(GB)に基づく畳み込みニューラルネットワーク(CNN)とディープニューラルネットワークの訓練方法を紹介する。
提案モデルでは,同一アーキテクチャの標準CNNとDeep-NNに対して,分類精度の点で優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-22T12:17:32Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Kernelized dense layers for facial expression recognition [10.98068123467568]
本稿では,従来の線形関係ではなく,高次特徴相互作用をキャプチャするカーネル化Dense Layer (KDL)を提案する。
本モデルでは,最先端のアプローチに関して,競争力のある結果が得られることを示す。
論文 参考訳(メタデータ) (2020-09-22T21:02:00Z) - Sparse Coding Driven Deep Decision Tree Ensembles for Nuclear
Segmentation in Digital Pathology Images [15.236873250912062]
デジタル病理画像セグメンテーションタスクにおいて、ディープニューラルネットワークと高い競争力を持つ、容易に訓練されながら強力な表現学習手法を提案する。
ScD2TEと略すこの手法はスパースコーディング駆動の深層決定木アンサンブルと呼ばれ、表現学習の新しい視点を提供する。
論文 参考訳(メタデータ) (2020-08-13T02:59:31Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z) - Reusing Trained Layers of Convolutional Neural Networks to Shorten
Hyperparameters Tuning Time [1.160208922584163]
本稿では,この過程を短縮するために,異なるトレーニングで隠蔽層(畳み込み層)の重みを再利用する提案について述べる。
実験では、再使用時のトレーニング時間と、畳み込みレイヤの再使用時のバリデーション損失を比較した。
彼らはこの戦略がトレーニング時間を短縮し、その結果のニューラルネットワークの精度も向上することを確認した。
論文 参考訳(メタデータ) (2020-06-16T11:39:39Z) - DHP: Differentiable Meta Pruning via HyperNetworks [158.69345612783198]
本稿では,ネットワークの自動プルーニングのためのハイパーネットによる識別可能なプルーニング手法を提案する。
遅延ベクトルは、バックボーンネットワーク内の畳み込み層の出力チャネルを制御し、レイヤのプルーニングのハンドルとして機能する。
画像分類、単一画像超解像、復調のための様々なネットワークで実験が行われた。
論文 参考訳(メタデータ) (2020-03-30T17:59:18Z) - Computational optimization of convolutional neural networks using
separated filters architecture [69.73393478582027]
我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
論文 参考訳(メタデータ) (2020-02-18T17:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。