論文の概要: CHAMP: Coherent Hardware-Aware Magnitude Pruning of Integrated Photonic
Neural Networks
- arxiv url: http://arxiv.org/abs/2112.06098v1
- Date: Sat, 11 Dec 2021 23:38:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 18:57:39.263593
- Title: CHAMP: Coherent Hardware-Aware Magnitude Pruning of Integrated Photonic
Neural Networks
- Title(参考訳): champ: 集積型フォトニックニューラルネットワークのハードウェア・アウェア・マグニチュード・プルーニング
- Authors: Sanmitra Banerjee, Mahdi Nikdast, Sudeep Pasricha, Krishnendu
Chakrabarty
- Abstract要約: 本稿では,コヒーレントフォトニックニューラルネットワークのためのハードウェア・アウェア・マグニチュード・プルーニング手法を提案する。
提案手法は,ネットワークパラメータの99.45%をプルークし,静的電力消費量を98.23%削減する。
- 参考スコア(独自算出の注目度): 8.019317467917109
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a novel hardware-aware magnitude pruning technique for coherent
photonic neural networks. The proposed technique can prune 99.45% of network
parameters and reduce the static power consumption by 98.23% with a negligible
accuracy loss.
- Abstract(参考訳): 本稿では,コヒーレントフォトニックニューラルネットワークのための新しいハードウェア・アウェア・マグニチュード・プルーニング手法を提案する。
提案手法では,ネットワークパラメータの99.45%を推定し,精度を損なうことなく,98.23%の静的電力消費量を削減できる。
関連論文リスト
- Hybrid Quantum-Classical Photonic Neural Networks [0.0]
従来のネットワーク層とトレーニング可能な連続可変量子回路の組み合わせを示す。
分類タスクでは、ハイブリッドネットワークは2倍の大きさの完全古典的ネットワークに対してベンチマークすると、同じ性能を達成する。
論文 参考訳(メタデータ) (2024-07-02T15:31:38Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - FPGA Resource-aware Structured Pruning for Real-Time Neural Networks [3.294652922898631]
プルーニングはニューラルネットワークをスパースし、乗算とメモリの数を減らします。
資源対応テンソル構造を持つクナップサック問題として定式化することで,ハードウェア中心のプルーニングの定式化を提案する。
提案手法は, DSP使用率の55%から92%, BRAM使用率の81%の削減を実現する。
論文 参考訳(メタデータ) (2023-08-09T18:14:54Z) - Spatially Varying Nanophotonic Neural Networks [39.1303097259564]
電子の代わりに光子を使った演算を実行するフォトニックプロセッサは、超低レイテンシと消費電力で光ニューラルネットワークを実現することを約束する。
既存の光学ニューラルネットワークは、基礎となるネットワーク設計によって制限されており、最先端の電子ニューラルネットワークよりもはるかに低い画像認識精度を実現している。
論文 参考訳(メタデータ) (2023-08-07T08:48:46Z) - Single-Shot Optical Neural Network [55.41644538483948]
深層ニューラルネットワークに必要な計算資源を削減するために,「重定常」アナログ光学・電子ハードウェアが提案されている。
我々は、スケーラブルで1層当たり単発の重み付き光学プロセッサを提案する。
論文 参考訳(メタデータ) (2022-05-18T17:49:49Z) - Pruning Coherent Integrated Photonic Neural Networks Using the Lottery
Ticket Hypothesis [8.019317467917109]
SC-IPNNは、フットプリントが大きく、トレーニングや推論のために高い静的電力消費に悩まされており、従来のプルーニング技術では刈り取られていない。
重みパラメータの最小化によりこれらの課題を緩和する,SC-IPNNのハードウェア対応プルーニング手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T15:45:14Z) - SONIC: A Sparse Neural Network Inference Accelerator with Silicon
Photonics for Energy-Efficient Deep Learning [4.286327408435937]
シリコンフォトニクスを用いたスパースニューラルネットワーク推論アクセラレータSONICを提案する。
SONICは、最先端のスパース電子ニューラルネットワークアクセラレータよりも、ワット当たり5.8倍、ビット当たり8.4倍のエネルギーを達成できる。
論文 参考訳(メタデータ) (2021-09-09T17:57:09Z) - Post-training deep neural network pruning via layer-wise calibration [70.65691136625514]
本論文では,自動合成フラクタル画像に基づくコンピュータビジョンモデルに対するデータフリーな拡張を提案する。
実データを使用する場合は、トレーニング後の設定で65%の間隔で8ビットの精度でImageNet上のResNet50モデルを取得できます。
論文 参考訳(メタデータ) (2021-04-30T14:20:51Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。