論文の概要: A 262 TOPS Hyperdimensional Photonic AI Accelerator powered by a Si3N4 microcomb laser
- arxiv url: http://arxiv.org/abs/2503.03263v1
- Date: Wed, 05 Mar 2025 08:41:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:52:31.288970
- Title: A 262 TOPS Hyperdimensional Photonic AI Accelerator powered by a Si3N4 microcomb laser
- Title(参考訳): Si3N4マイクロコムレーザーを用いた262TOPS超次元フォトニックAI加速器
- Authors: Christos Pappas, Antonios Prapas, Theodoros Moschos, Manos Kirtas, Odysseas Asimopoulos, Apostolos Tsakyridis, Miltiadis Moralis-Pegios, Chris Vagionas, Nikolaos Passalis, Cagri Ozdilek, Timofey Shpakovsky, Alain Yuji Takabayashi, John D. Jost, Maxim Karpov, Anastasios Tefas, Nikos Pleros,
- Abstract要約: フォトニックニューラルネットワーク(PNN)は、時間、波長、空間を含む複数の物理的次元の相互作用を生かしている。
我々は、262TOPSの超高計算パワーでテンソル乗算を実行できる、新しい多次元アレイ導波路グレーティングルータ(AWGR)ベースのフォトニックAIアクセラレータを実験的に実証した。
- 参考スコア(独自算出の注目度): 22.184750839953946
- License:
- Abstract: The ever-increasing volume of data has necessitated a new computing paradigm, embodied through Artificial Intelligence (AI) and Large Language Models (LLMs). Digital electronic AI computing systems, however, are gradually reaching their physical plateaus, stimulating extensive research towards next-generation AI accelerators. Photonic Neural Networks (PNNs), with their unique ability to capitalize on the interplay of multiple physical dimensions including time, wavelength, and space, have been brought forward with a credible promise for boosting computational power and energy efficiency in AI processors. In this article, we experimentally demonstrate a novel multidimensional arrayed waveguide grating router (AWGR)-based photonic AI accelerator that can execute tensor multiplications at a record-high total computational power of 262 TOPS, offering a ~24x improvement over the existing waveguide-based optical accelerators. It consists of a 16x16 AWGR that exploits the time-, wavelength- and space- division multiplexing (T-WSDM) for weight and input encoding together with an integrated Si3N4-based frequency comb for multi-wavelength generation. The photonic AI accelerator has been experimentally validated in both Fully-Connected (FC) and Convolutional NN (NNs) models, with the FC and CNN being trained for DDoS attack identification and MNIST classification, respectively. The experimental inference at 32 Gbaud achieved a Cohen's kappa score of 0.867 for DDoS detection and an accuracy of 92.14% for MNIST classification, respectively, closely matching the software performance.
- Abstract(参考訳): 絶え間なく増加するデータ量には、人工知能(AI)とLarge Language Models(LLM)によって具現化された新しいコンピューティングパラダイムが必要である。
しかし、デジタル・エレクトロニック・AI・コンピューティング・システムは徐々にその基盤に到達し、次世代AIアクセラレーターへの広範な研究を刺激している。
光神経ニューラルネットワーク(PNN)は、時間、波長、空間を含む複数の物理的次元の相互作用を活かすユニークな能力を持つため、AIプロセッサの計算能力とエネルギー効率を向上する信頼性の高い約束がなされている。
本稿では,光導波路型光加速器(AWGR)をベースとした新しい多次元アレイ導波路グレーティングルータ(AWGR)を試作し,262TOPSの超高計算パワーでテンソル乗算を実行し,既存の導波路型光加速器の約24倍の性能向上を実現した。
16x16 AWGRは、時間、波長、空間分割多重化(T-WSDM)を重み付けと入力エンコーディングに利用し、Si3N4ベースの周波数コムを組み込んでマルチ波長生成を行う。
フォトニックAIアクセラレータはFully-Connected(FC)モデルとConvolutional NN(NN)モデルの両方で実験的に検証されており、FCとCNNはそれぞれDDoS攻撃識別とMNIST分類のために訓練されている。
32 Gbaud での実験的推論により、Cohen の DDoS 検出では 0.867 、MNIST 分類では 92.14% の精度がソフトウェア性能と密接に一致した。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - TeMPO: Efficient Time-Multiplexed Dynamic Photonic Tensor Core for Edge
AI with Compact Slow-Light Electro-Optic Modulator [44.74560543672329]
我々は,TMPOと呼ばれる時間多重化動的フォトニックテンソルアクセラレータを,クロス層デバイス/回路/アーキテクチャのカスタマイズにより提案する。
我々は,368.6TOPSピーク性能,22.3TOPS/Wエネルギー効率,1.2TOPS/mm$2$計算密度を実現した。
この研究は、多層共設計とドメイン固有のカスタマイズの力を示し、将来の電子フォトニクス加速器への道を開く。
論文 参考訳(メタデータ) (2024-02-12T03:40:32Z) - Digital-analog hybrid matrix multiplication processor for optical neural
networks [11.171425574890765]
光ニューラルネットワーク(ONN)のためのディジタルアナログハイブリッド光コンピューティングアーキテクチャを提案する。
しきい値に基づく論理レベルと決定を導入することにより、計算精度を大幅に向上させることができる。
画素誤り率(PER)は18.2dBの信号対雑音比(SNR)で1.8times10-3$以下である。
論文 参考訳(メタデータ) (2024-01-26T18:42:57Z) - Mirage: An RNS-Based Photonic Accelerator for DNN Training [2.2750171530507695]
フォトニックコンピューティングは、ディープニューラルネットワーク(DNN)における重要な演算である、高効率な行列乗算を実現するための魅力的な道である
本稿では、Residue Number System (RNS) を用いたフォトニックハードウェアにおける精度の課題を克服するフォトニックDNNトレーニングアクセラレータであるMirageを提案する。
RNSはモジュラー演算に基づく数値システムであり、複数の低精度なモジュラー演算によって高精度な演算を行うことができる。
論文 参考訳(メタデータ) (2023-11-29T02:40:12Z) - Marsellus: A Heterogeneous RISC-V AI-IoT End-Node SoC with 2-to-8b DNN
Acceleration and 30%-Boost Adaptive Body Biasing [11.27712965055613]
Marsellusは、GlobalFoundries 22nm FDXで製造されたAI-IoTエンドノード用の全デジタル異種システムである。
2ビットの精度演算では180 Gop/sか3.32 Top/s/W、ハードウェアアクセラレーションされたDNN層では最大637 Gop/sか12.4 Top/s/Wに達する。
論文 参考訳(メタデータ) (2023-05-15T07:48:50Z) - Sophisticated deep learning with on-chip optical diffractive tensor
processing [5.081061839052458]
フォトニック集積回路は、電子回路によってもたらされる帯域制限と電力ウォールを緩和するための効率的なアプローチを提供する。
我々は、オンチップ回折により、光畳み込みユニット(OCU)と呼ばれる畳み込み加速度を実装する光学コンピューティングアーキテクチャを提案する。
OCUを基本単位として、光学畳み込みニューラルネットワーク(oCNN)を構築し、分類と回帰という2つの一般的なディープラーニングタスクを実装する。
論文 参考訳(メタデータ) (2022-12-20T03:33:26Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Two-Timescale End-to-End Learning for Channel Acquisition and Hybrid
Precoding [94.40747235081466]
本研究では,ミリ波(mmWave)大規模マルチインプット多重出力(MIMO)システムのためのエンドツーエンドの深層学習に基づくジョイントトランスシーバ設計アルゴリズムを提案する。
我々は受信したパイロットを受信機でフィードバックビットにマッピングし、さらに送信機でハイブリッドプリコーダにフィードバックビットをマッピングするDNNアーキテクチャを開発した。
論文 参考訳(メタデータ) (2021-10-22T20:49:02Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。