論文の概要: 11 TeraFLOPs per second photonic convolutional accelerator for deep
learning optical neural networks
- arxiv url: http://arxiv.org/abs/2011.07393v1
- Date: Sat, 14 Nov 2020 21:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 13:39:03.901814
- Title: 11 TeraFLOPs per second photonic convolutional accelerator for deep
learning optical neural networks
- Title(参考訳): 11 TeraFLOPs per second photonic convolutional accelerator for Deep Learning Optical Neural Network
- Authors: Xingyuan Xu, Mengxi Tan, Bill Corcoran, Jiayang Wu, Andreas Boes,
Thach G. Nguyen, Sai T. Chu, Brent E. Little, Damien G. Hicks, Roberto
Morandotti, Arnan Mitchell, and David J. Moss
- Abstract要約: 10 TeraFLOPS(1秒あたりの浮動小数点演算)を超える全光ベクトル畳み込み加速器を実証する。
次に、同じハードウェアを用いて、10個の出力ニューロンを持つ深部光学CNNを逐次形成し、900ピクセルの手書き数字画像と88%の精度で完全な10桁の認識を成功させる。
このアプローチはスケーラブルで、無人車やリアルタイムビデオ認識のような要求のあるアプリケーションのために、より複雑なネットワークに対してトレーニング可能である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs), inspired by biological visual cortex
systems, are a powerful category of artificial neural networks that can extract
the hierarchical features of raw data to greatly reduce the network parametric
complexity and enhance the predicting accuracy. They are of significant
interest for machine learning tasks such as computer vision, speech
recognition, playing board games and medical diagnosis. Optical neural networks
offer the promise of dramatically accelerating computing speed to overcome the
inherent bandwidth bottleneck of electronics. Here, we demonstrate a universal
optical vector convolutional accelerator operating beyond 10 TeraFLOPS
(floating point operations per second), generating convolutions of images of
250,000 pixels with 8 bit resolution for 10 kernels simultaneously, enough for
facial image recognition. We then use the same hardware to sequentially form a
deep optical CNN with ten output neurons, achieving successful recognition of
full 10 digits with 900 pixel handwritten digit images with 88% accuracy. Our
results are based on simultaneously interleaving temporal, wavelength and
spatial dimensions enabled by an integrated microcomb source. This approach is
scalable and trainable to much more complex networks for demanding applications
such as unmanned vehicle and real-time video recognition.
- Abstract(参考訳): 生物学的視覚野システムにインスパイアされた畳み込みニューラルネットワーク(CNN)は、生データの階層的特徴を抽出し、ネットワークパラメトリックの複雑さを大幅に低減し、予測精度を高めることができる、人工知能ニューラルネットワークの強力なカテゴリである。
コンピュータビジョン、音声認識、ボードゲーム、医療診断などの機械学習タスクに非常に興味を持っている。
光ニューラルネットワークは、エレクトロニクスの固有の帯域のボトルネックを克服するために、計算速度を劇的に加速する。
ここでは、10テラフロップ(毎秒浮動小数点演算)以上で動作する汎用光学ベクトル畳み込み加速器の実証を行い,25万画素の画像の畳み込みと10カーネルの8ビット解像度を同時に生成し,顔画像認識に十分有効であることを示す。
次に、同じハードウェアを用いて、10個の出力ニューロンを持つ深部光学CNNを逐次形成し、900ピクセルの手書き数字画像と88%の精度で完全な10桁の認識を成功させる。
本研究は, 集積マイクロコムによる時間, 波長, 空間次元の同時計算に基づく。
このアプローチは、無人車両やリアルタイムビデオ認識のようなアプリケーションを要求するため、より複雑なネットワークにスケーラブルで訓練可能である。
関連論文リスト
- Transferable polychromatic optical encoder for neural networks [13.311727599288524]
本稿では,画像キャプチャ中に3つの色チャネルで同時に畳み込みを行う光学エンコーダを実演する。
このような光学符号化は計算処理を24,000倍に削減し、自由空間光学系における最先端の分類精度(73.2%)が得られる。
論文 参考訳(メタデータ) (2024-11-05T00:49:47Z) - Optical training of large-scale Transformers and deep neural networks with direct feedback alignment [48.90869997343841]
我々は,ハイブリッド電子フォトニックプラットフォーム上で,ダイレクトフィードバックアライメントと呼ばれる多目的でスケーラブルなトレーニングアルゴリズムを実験的に実装した。
光処理ユニットは、このアルゴリズムの中央動作である大規模ランダム行列乗算を最大1500テラOpsで行う。
我々は、ハイブリッド光アプローチの計算スケーリングについて検討し、超深度・広帯域ニューラルネットワークの潜在的な利点を実証する。
論文 参考訳(メタデータ) (2024-09-01T12:48:47Z) - Spatially Varying Nanophotonic Neural Networks [39.1303097259564]
電子の代わりに光子を使った演算を実行するフォトニックプロセッサは、超低レイテンシと消費電力で光ニューラルネットワークを実現することを約束する。
既存の光学ニューラルネットワークは、基礎となるネットワーク設計によって制限されており、最先端の電子ニューラルネットワークよりもはるかに低い画像認識精度を実現している。
論文 参考訳(メタデータ) (2023-08-07T08:48:46Z) - EDeNN: Event Decay Neural Networks for low latency vision [26.784944204163363]
我々は、元のイベントデータストリームに近く動作する新しいタイプのニューラルネットワークを開発する。
角速度回帰および競合光学流推定における最先端性能を示す。
論文 参考訳(メタデータ) (2022-09-09T15:51:39Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - An optical neural network using less than 1 photon per multiplication [4.003843776219224]
手書き桁分類において99%の精度を達成する光ニューラルネットワークを実験的に実証した。
この性能は、カスタム自由空間光学プロセッサを使用して達成された。
私達の結果は低光力操作のための原則を提供します。
論文 参考訳(メタデータ) (2021-04-27T20:43:23Z) - Learning from Event Cameras with Sparse Spiking Convolutional Neural
Networks [0.0]
畳み込みニューラルネットワーク(CNN)は現在、コンピュータビジョン問題のデファクトソリューションとなっている。
イベントカメラとスピーキングニューラルネットワーク(SNN)を用いたエンドツーエンドの生物学的インスパイアされたアプローチを提案する。
この手法は、一般的なディープラーニングフレームワークPyTorchを使用して、イベントデータに直接スパーススパイクニューラルネットワークのトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-26T13:52:01Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Computational optimization of convolutional neural networks using
separated filters architecture [69.73393478582027]
我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
論文 参考訳(メタデータ) (2020-02-18T17:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。