論文の概要: CrossLight: A Cross-Layer Optimized Silicon Photonic Neural Network
Accelerator
- arxiv url: http://arxiv.org/abs/2102.06960v1
- Date: Sat, 13 Feb 2021 17:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:15:52.323435
- Title: CrossLight: A Cross-Layer Optimized Silicon Photonic Neural Network
Accelerator
- Title(参考訳): crosslight: クロスレイヤー最適化されたシリコンフォトニックニューラルネットワークアクセラレータ
- Authors: Febin Sunny, Asif Mirza, Mahdi Nikdast, and Sudeep Pasricha
- Abstract要約: ドメイン固有のニューラルネットワークアクセラレータは近年、関心が高まっている。
そこで我々はCrossLightと呼ばれる新しい層間最適化ニューラルネットワークアクセラレータを提案する。
平均して、CrossLightは16ビット解像度で9.5倍のエネルギー/ビットと15.9倍高い性能を提供する。
- 参考スコア(独自算出の注目度): 3.49112071745966
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Domain-specific neural network accelerators have seen growing interest in
recent years due to their improved energy efficiency and inference performance
compared to CPUs and GPUs. In this paper, we propose a novel cross-layer
optimized neural network accelerator called CrossLight that leverages silicon
photonics. CrossLight includes device-level engineering for resilience to
process variations and thermal crosstalk, circuit-level tuning enhancements for
inference latency reduction, and architecture-level optimization to enable
higher resolution, better energy-efficiency, and improved throughput. On
average, CrossLight offers 9.5x lower energy-per-bit and 15.9x higher
performance-per-watt at 16-bit resolution than state-of-the-art photonic deep
learning accelerators.
- Abstract(参考訳): ドメイン固有のニューラルネットワークアクセラレータは近年、cpuやgpuに比べてエネルギー効率が向上し、推論性能が向上したため、関心が高まっている。
本稿では,シリコンフォトニクスを利用したクロス層最適化ニューラルネットワークアクセラレータCrossLightを提案する。
crosslightには、プロセスバリエーションと熱クロストークに対するレジリエンスのためのデバイスレベルエンジニアリング、推論レイテンシ低減のための回路レベルチューニング拡張、高分解能化、エネルギー効率向上、スループット向上のためのアーキテクチャレベルの最適化が含まれている。
平均して、CrossLightは16ビット解像度で9.5倍のエネルギー/ビットと15.9倍高い性能を提供する。
関連論文リスト
- Optical training of large-scale Transformers and deep neural networks with direct feedback alignment [48.90869997343841]
我々は,ハイブリッド電子フォトニックプラットフォーム上で,ダイレクトフィードバックアライメントと呼ばれる多目的でスケーラブルなトレーニングアルゴリズムを実験的に実装した。
光処理ユニットは、このアルゴリズムの中央動作である大規模ランダム行列乗算を最大1500テラOpsで行う。
我々は、ハイブリッド光アプローチの計算スケーリングについて検討し、超深度・広帯域ニューラルネットワークの潜在的な利点を実証する。
論文 参考訳(メタデータ) (2024-09-01T12:48:47Z) - SCATTER: Algorithm-Circuit Co-Sparse Photonic Accelerator with Thermal-Tolerant, Power-Efficient In-situ Light Redistribution [7.378742476019604]
フォトニックコンピューティングは、計算集約人工知能(AI)ワークロードを加速するための有望なソリューションとして登場した。
しかし、リコンフィグアビリティの制限、高電気光学変換コスト、サーマル感度は、現在の光学アナログコンピューティングエンジンの展開を制限し、大規模に電力制限されたパフォーマンスに敏感なAIワークロードをサポートする。
SCATTERは、耐熱性、高効率な光再分配、パワーゲーティングによる動的再構成可能な信号経路を特徴とする、新しいアルゴリズム・回路共分散フォトニックアクセラレータである。
論文 参考訳(メタデータ) (2024-07-07T22:57:44Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - Silicon photonic subspace neural chip for hardware-efficient deep
learning [11.374005508708995]
光ニューラルネットワーク(ONN)は次世代のニューロコンピューティングの候補として期待されている。
ハードウェア効率の良いフォトニックサブスペースニューラルネットワークアーキテクチャを考案する。
我々は,バタフライ型プログラマブルシリコンフォトニック集積回路上でPSNNを実験的に実証した。
論文 参考訳(メタデータ) (2021-11-11T06:34:05Z) - SONIC: A Sparse Neural Network Inference Accelerator with Silicon
Photonics for Energy-Efficient Deep Learning [4.286327408435937]
シリコンフォトニクスを用いたスパースニューラルネットワーク推論アクセラレータSONICを提案する。
SONICは、最先端のスパース電子ニューラルネットワークアクセラレータよりも、ワット当たり5.8倍、ビット当たり8.4倍のエネルギーを達成できる。
論文 参考訳(メタデータ) (2021-09-09T17:57:09Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z) - Efficient On-Chip Learning for Optical Neural Networks Through
Power-Aware Sparse Zeroth-Order Optimization [12.052076188811052]
光ニューラルネットワーク(ONN)は、ニューロモルフィックコンピューティングにおける記録破りの可能性を示した。
我々は,パワー効率向上のためのONNの潜在能力を最大限に発揮するための,新しいオンチップ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-21T07:00:39Z) - Rapid characterisation of linear-optical networks via PhaseLift [51.03305009278831]
集積フォトニクスは優れた位相安定性を提供し、半導体産業によって提供される大規模な製造性に依存することができる。
このような光回路に基づく新しいデバイスは、機械学習アプリケーションにおいて高速でエネルギー効率の高い計算を約束する。
線形光ネットワークの転送行列を再構成する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-01T16:04:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。