論文の概要: Spatially Varying Nanophotonic Neural Networks
- arxiv url: http://arxiv.org/abs/2308.03407v3
- Date: Sat, 30 Dec 2023 21:44:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 01:55:53.632160
- Title: Spatially Varying Nanophotonic Neural Networks
- Title(参考訳): 空間的に変化するナノフォトニクスニューラルネットワーク
- Authors: Kaixuan Wei, Xiao Li, Johannes Froech, Praneeth Chakravarthula, James
Whitehead, Ethan Tseng, Arka Majumdar, Felix Heide
- Abstract要約: 電子の代わりに光子を使った演算を実行するフォトニックプロセッサは、超低レイテンシと消費電力で光ニューラルネットワークを実現することを約束する。
既存の光学ニューラルネットワークは、基礎となるネットワーク設計によって制限されており、最先端の電子ニューラルネットワークよりもはるかに低い画像認識精度を実現している。
- 参考スコア(独自算出の注目度): 39.1303097259564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The explosive growth of computation and energy cost of artificial
intelligence has spurred strong interests in new computing modalities as
potential alternatives to conventional electronic processors. Photonic
processors that execute operations using photons instead of electrons, have
promised to enable optical neural networks with ultra-low latency and power
consumption. However, existing optical neural networks, limited by the
underlying network designs, have achieved image recognition accuracy far below
that of state-of-the-art electronic neural networks. In this work, we close
this gap by embedding massively parallelized optical computation into flat
camera optics that perform neural network computation during the capture,
before recording an image on the sensor. Specifically, we harness large kernels
and propose a large-kernel spatially-varying convolutional neural network
learned via low-dimensional reparameterization techniques. We experimentally
instantiate the network with a flat meta-optical system that encompasses an
array of nanophotonic structures designed to induce angle-dependent responses.
Combined with an extremely lightweight electronic backend with approximately 2K
parameters we demonstrate a reconfigurable nanophotonic neural network reaches
72.76\% blind test classification accuracy on CIFAR-10 dataset, and, as such,
the first time, an optical neural network outperforms the first modern digital
neural network -- AlexNet (72.64\%) with 57M parameters, bringing optical
neural network into modern deep learning era.
- Abstract(参考訳): 人工知能の爆発的な成長とエネルギーコストは、従来の電子プロセッサに代わる潜在的な選択肢として、新しいコンピューティングモードへの強い関心を喚起した。
電子の代わりに光子を使って演算を行うフォトニックプロセッサは、超低レイテンシと消費電力で光ニューラルネットワークを実現することを約束している。
しかし、基礎となるネットワーク設計によって制限された既存の光学ニューラルネットワークは、最先端の電子ニューラルネットワークよりもはるかに低い画像認識精度を実現している。
本研究では,センサに画像を記録する前に,撮像中にニューラルネットワーク計算を行うフラットカメラ光学系に超並列光学計算を組み込むことにより,このギャップを解消する。
具体的には、大きなカーネルを活用し、低次元再パラメータ化技術を用いて学習した大カーネル空間変動畳み込みニューラルネットワークを提案する。
我々は,平面型メタ光学系を用いて,角度依存応答を誘導するナノフォトニック構造を含むネットワークを実験的にインスタンス化する。
約2kパラメータを持つ非常に軽量な電子バックエンドと組み合わせることで、再構成可能なナノフォトニクスニューラルネットワークは、cifar-10データセットにおけるブラインドテスト分類精度が72.76\%に達し、初めて、光ニューラルネットワークが、57mパラメータを持つ最初のモダンなデジタルニューラルネットワーク -- alexnet (72.64\%) よりも優れており、光ニューラルネットワークが現代のディープラーニングの時代にもたらされている。
関連論文リスト
- Optical training of large-scale Transformers and deep neural networks with direct feedback alignment [48.90869997343841]
我々は,ハイブリッド電子フォトニックプラットフォーム上で,ダイレクトフィードバックアライメントと呼ばれる多目的でスケーラブルなトレーニングアルゴリズムを実験的に実装した。
光処理ユニットは、このアルゴリズムの中央動作である大規模ランダム行列乗算を最大1500テラOpsで行う。
我々は、ハイブリッド光アプローチの計算スケーリングについて検討し、超深度・広帯域ニューラルネットワークの潜在的な利点を実証する。
論文 参考訳(メタデータ) (2024-09-01T12:48:47Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Experimentally realized in situ backpropagation for deep learning in
nanophotonic neural networks [0.7627023515997987]
私たちは、カスタムデザインの「フォトニックメッシュ」アクセラレーターをカスケードする、大量製造可能なシリコンフォトニックニューラルネットワークを設計します。
In situ backproagation を初めて示し、分類課題を解く。
本研究は、フォトニクス加速人工知能の新しいトレーニングパラダイムを、一般的なバックプロパゲーション手法の物理的類似に基づいて提案するものであることを示唆する。
論文 参考訳(メタデータ) (2022-05-17T17:13:50Z) - A photonic chip-based machine learning approach for the prediction of
molecular properties [11.55177943027656]
フォトニックチップ技術は、より高速なデータ処理と低エネルギー使用量でニューラルネットワークを実装するための代替プラットフォームを提供する。
分子の量子力学特性の予測におけるフォトニックニューラルネットワークの有用性を実証する。
我々の研究は、分子科学における大規模機械学習応用にフォトニック技術を活用するための道を開く。
論文 参考訳(メタデータ) (2022-03-03T03:15:14Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - Photonic neural field on a silicon chip: large-scale, high-speed
neuro-inspired computing and sensing [0.0]
フォトニックニューラルネットワークは、低レイテンシと超低エネルギー消費で高速なニューラル処理を実現する大きな可能性を秘めている。
本稿では、フォトニック・ニューラルフィールドの概念を提案し、シリコンチップ上で実験的に実装し、高度にスケーラブルなニューラルインスピレーションド・コンピューティングを実現する。
本研究では,オンチップ・フォトニック・ニューラルフィールドを情報の保存手段として使用し,低誤差でカオス時系列予測を行う。
論文 参考訳(メタデータ) (2021-05-22T09:28:51Z) - An optical neural network using less than 1 photon per multiplication [4.003843776219224]
手書き桁分類において99%の精度を達成する光ニューラルネットワークを実験的に実証した。
この性能は、カスタム自由空間光学プロセッサを使用して達成された。
私達の結果は低光力操作のための原則を提供します。
論文 参考訳(メタデータ) (2021-04-27T20:43:23Z) - 11 TeraFLOPs per second photonic convolutional accelerator for deep
learning optical neural networks [0.0]
10 TeraFLOPS(1秒あたりの浮動小数点演算)を超える全光ベクトル畳み込み加速器を実証する。
次に、同じハードウェアを用いて、10個の出力ニューロンを持つ深部光学CNNを逐次形成し、900ピクセルの手書き数字画像と88%の精度で完全な10桁の認識を成功させる。
このアプローチはスケーラブルで、無人車やリアルタイムビデオ認識のような要求のあるアプリケーションのために、より複雑なネットワークに対してトレーニング可能である。
論文 参考訳(メタデータ) (2020-11-14T21:24:01Z) - Photonics for artificial intelligence and neuromorphic computing [52.77024349608834]
フォトニック集積回路は超高速な人工ニューラルネットワークを可能にした。
フォトニックニューロモルフィックシステムはナノ秒以下のレイテンシを提供する。
これらのシステムは、機械学習と人工知能の需要の増加に対応する可能性がある。
論文 参考訳(メタデータ) (2020-10-30T21:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。