論文の概要: A Silicon Photonic Accelerator for Convolutional Neural Networks with
Heterogeneous Quantization
- arxiv url: http://arxiv.org/abs/2205.11244v1
- Date: Tue, 17 May 2022 03:26:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 20:41:41.171836
- Title: A Silicon Photonic Accelerator for Convolutional Neural Networks with
Heterogeneous Quantization
- Title(参考訳): 不均一量子化を用いた畳み込みニューラルネットワーク用シリコンフォトニック加速器
- Authors: Febin Sunny, Mahdi Nikdast, and Sudeep Pasricha
- Abstract要約: HQNNAは非コヒーレントシリコンフォトニクスに基づくCNNアクセラレータである。
HQNNAは、最先端のフォトニックCNN加速器よりも最大73.8倍、スループット・エネルギー効率が159.5倍向上していることを示す。
- 参考スコア(独自算出の注目度): 4.616703548353372
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Parameter quantization in convolutional neural networks (CNNs) can help
generate efficient models with lower memory footprint and computational
complexity. But, homogeneous quantization can result in significant degradation
of CNN model accuracy. In contrast, heterogeneous quantization represents a
promising approach to realize compact, quantized models with higher inference
accuracies. In this paper, we propose HQNNA, a CNN accelerator based on
non-coherent silicon photonics that can accelerate both homogeneously quantized
and heterogeneously quantized CNN models. Our analyses show that HQNNA achieves
up to 73.8x better energy-per-bit and 159.5x better throughput-energy
efficiency than state-of-the-art photonic CNN accelerators.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)におけるパラメータ量子化は、メモリフットプリントと計算複雑性が低い効率的なモデルを生成するのに役立つ。
しかし、均一量子化はCNNモデルの精度を著しく低下させる可能性がある。
対照的に、不均一量子化は、高い推論精度を持つコンパクトな量子化モデルを実現するための有望なアプローチである。
本稿では,均質量子化モデルと不均質量子化モデルの両方を加速できる非コヒーレントシリコンフォトニクスに基づくcnn加速器hqnnaを提案する。
解析の結果、hqnnaは最大73.8倍、スループット・エネルギ効率は159.5倍向上した。
関連論文リスト
- Towards Efficient Quantum Hybrid Diffusion Models [68.43405413443175]
本稿では,量子ハイブリッド拡散モデルの設計手法を提案する。
量子コンピューティングの優れた一般化と古典的ネットワークのモジュラリティを組み合わせた2つのハイブリダイゼーション手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T16:57:51Z) - Correlated Optical Convolutional Neural Network with Quantum Speedup [9.194748023567886]
相関した光畳み込みニューラルネットワーク(COCNN)は、トレーニングプロセスにおいて量子スピードアップを示すことができることを示す。
提案手法は,量子スピードアップでONNを実現するための新たな道を開く。
論文 参考訳(メタデータ) (2024-02-01T11:17:09Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - Hybrid Quantum Neural Network Structures for Image Multi-classification [0.0]
2つの最近の画像分類手法が登場し、1つはPCA次元の縮小と角度符号化を採用し、もう1つはQNNをCNNに統合して性能を向上させる。
本研究では、これらのアルゴリズムの性能をマルチクラス画像分類において検討し、現在の環境に適した最適化されたハイブリッド量子ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T12:48:05Z) - The Hardware Impact of Quantization and Pruning for Weights in Spiking
Neural Networks [0.368986335765876]
パラメータの量子化とプルーニングは、モデルサイズを圧縮し、メモリフットプリントを削減し、低レイテンシ実行を容易にする。
本研究では,身近な身近なジェスチャー認識システムであるSNNに対して,孤立度,累積的に,そして同時にプルーニングと量子化の様々な組み合わせについて検討する。
本研究では,3次重みまで精度の低下に悩まされることなく,攻撃的パラメータ量子化に対処可能であることを示す。
論文 参考訳(メタデータ) (2023-02-08T16:25:20Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - GHN-Q: Parameter Prediction for Unseen Quantized Convolutional
Architectures via Graph Hypernetworks [80.29667394618625]
我々は,未知の量子化CNNアーキテクチャのパラメータの予測にグラフハイパーネットを用いることを初めて検討した。
我々は、CNNの探索空間の縮小に着目し、GHN-Qが実際に8ビットの量子化されたCNNの量子化-ロバストパラメータを予測できることを見出した。
論文 参考訳(メタデータ) (2022-08-26T08:00:02Z) - Group Convolutional Neural Networks Improve Quantum State Accuracy [1.52292571922932]
特定の対称性を持つ量子状態に対して、最大表現モデルを作成する方法を示す。
我々は,グループ同変畳み込みネットワーク(G-CNN) citecohen2016groupを実装し,メモリ使用量を増やすことなく,性能改善を実現することを実証した。
論文 参考訳(メタデータ) (2021-04-11T19:45:10Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Recurrent Quantum Neural Networks [7.6146285961466]
リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
論文 参考訳(メタデータ) (2020-06-25T17:59:44Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。