論文の概要: ReDON: Recurrent Diffractive Optical Neural Processor with Reconfigurable Self-Modulated Nonlinearity
- arxiv url: http://arxiv.org/abs/2602.23616v2
- Date: Mon, 02 Mar 2026 19:28:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 14:54:12.422394
- Title: ReDON: Recurrent Diffractive Optical Neural Processor with Reconfigurable Self-Modulated Nonlinearity
- Title(参考訳): ReDON: 再構成可能な自己変調非線形性を有するリカレント拡散型光ニューラルプロセッサ
- Authors: Ziang Yin, Qi Jing, Raktim Sarma, Rena Huang, Yu Yao, Jiaqi Gu,
- Abstract要約: Recurrent Diffractive Optical Neural Processor (ReDON)を導入する。
大規模言語モデルで使用されるゲート線形単位(GLU)にインスパイアされたReDONは、伝播する光学場の一部を感知し、その位相や強度を軽量パラメトリック関数によって変調する。
画像認識とセグメンテーションのベンチマークでは、ReDONは以前のDONNと比較してテスト精度と平均交叉結合(mIoU)を最大20%改善する。
- 参考スコア(独自算出の注目度): 4.488347887618485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffractive optical neural networks (DONNs) have demonstrated unparalleled energy efficiency and parallelism by processing information directly in the optical domain. However, their computational expressivity is constrained by static, passive diffractive phase masks that lack efficient nonlinear responses and reprogrammability. To address these limitations, we introduce the Recurrent Diffractive Optical Neural Processor (ReDON), a novel architecture featuring reconfigurable, recurrent self-modulated nonlinearity. This mechanism enables dynamic, input-dependent optical transmission through in-situ electro-optic self-modulation, providing a highly efficient and reprogrammable approach to optical computation. Inspired by the gated linear unit (GLU) used in large language models, ReDON senses a fraction of the propagating optical field and modulates its phase or intensity via a lightweight parametric function, enabling effective nonlinearity with minimal inference overhead. As a non-von Neumann architecture in which the primary weighting elements (metasurfaces) remain fixed, ReDON substantially extends the nonlinear representational capacity and task adaptability of conventional DONNs through recurrent optical hardware reuse and dynamically tunable nonlinearity. We systematically investigate various self-modulation configurations to characterize the trade-offs between hardware efficiency and computational expressivity. On image recognition and segmentation benchmarks, ReDON improves test accuracy and mean intersection-over-union (mIoU) by up to 20% compared with prior DONNs employing either optical or digital nonlinearities at comparable model complexity and negligible additional power consumption. This work establishes a new paradigm for reconfigurable nonlinear optical computing, uniting recurrence and self-modulation within non-von Neumann analog processors.
- Abstract(参考訳): DNN(Diffractive Optical Neural Network)は、光学領域の情報を直接処理することで、非並列エネルギー効率と並列性を実証している。
しかし、それらの計算表現性は、効率的な非線形応答と再プログラム性に欠ける静的でパッシブな位相マスクによって制約される。
これらの制約に対処するため,再構成可能な自己変調非線形性を備えた新しいアーキテクチャであるRecurrent Diffractive Optical Neural Processor (ReDON)を導入する。
この機構は、その場での電気光学自己変調による動的で入力依存の光伝送を可能にし、光学計算に対する高効率で再プログラム可能なアプローチを提供する。
大規模言語モデルで使用されるゲート線形単位(GLU)にインスパイアされたReDONは、伝播する光学場のごく一部を感知し、その位相または強度を軽量パラメトリック関数によって変調し、最小の推論オーバーヘッドで効果的な非線形性を実現する。
主重み付け要素(膜面)が固定された非線形ノイマンアーキテクチャとして、ReDONはリカレントな光ハードウェアの再利用と動的調整可能な非線形性を通じて従来のDONNの非線形表現能力とタスク適応性を大幅に拡張する。
ハードウェア効率と計算表現率のトレードオフを特徴付けるために,様々な自己変調構成を体系的に検討する。
画像認識とセグメンテーションのベンチマークにおいて、ReDONは、同等のモデル複雑さと無視可能な追加電力消費で光学的またはデジタル的非線形性を利用する以前のDONNと比較して、テスト精度と平均交叉結合(mIoU)を最大20%改善する。
この研究は、再構成可能な非線形光学計算のための新しいパラダイムを確立し、非ヴォン・ノイマンアナログプロセッサ内での繰り返しと自己変調を統一する。
関連論文リスト
- Gradient Descent as a Perceptron Algorithm: Understanding Dynamics and Implicit Acceleration [67.12978375116599]
勾配降下(GD)のステップが一般化されたパーセプトロンアルゴリズムのステップに還元されることを示す。
これは、ニューラルネットワークで観測される最適化力学と暗黙の加速現象を説明するのに役立つ。
論文 参考訳(メタデータ) (2025-12-12T14:16:35Z) - Spatially Parallel All-optical Neural Networks [14.284567977850912]
AONN(All-optical Neural Network)は、超高速でエネルギー効率の高い計算のための有望なパラダイムとして登場した。
本稿では、全光ニューラルネットワーク(SP-AONN)のための空間並列アーキテクチャを提案する。
我々は,光学的ニューラルコンピューティングの能力向上のための実用的かつスケーラブルな戦略として,空間並列性に注目した。
論文 参考訳(メタデータ) (2025-09-28T03:25:40Z) - Massively parallel and universal approximation of nonlinear functions using diffractive processors [17.16859564691328]
大規模非線形計算は、受動位相のみの表面からなる最適化された回折プロセッサを通して線形光学を用いて行うことができる。
我々は、波長スケールの空間密度で正確に実行される100万個の異なる非線形関数の並列計算を数値的に示す。
これらの結果は、超並列普遍非線形関数近似のためのスケーラブルなプラットフォームとして、微分光学プロセッサを確立している。
論文 参考訳(メタデータ) (2025-07-11T01:54:10Z) - Generative System Dynamics in Recurrent Neural Networks [56.958984970518564]
リカレントニューラルネットワーク(RNN)の連続時間ダイナミクスについて検討する。
線形および非線形構成の両方において安定な極限サイクルを実現するためには,スキュー対称性の重み行列が基本であることを示す。
数値シミュレーションは、非線形活性化関数が極限周期を維持するだけでなく、システム統合プロセスの数値安定性を高めることを示す。
論文 参考訳(メタデータ) (2025-04-16T10:39:43Z) - Training Large-Scale Optical Neural Networks with Two-Pass Forward Propagation [0.0]
本稿では、トレーニング効率、非線形関数の実装、大規模入力データ処理に関連する光学ニューラルネットワーク(ONN)の限界について述べる。
ランダムノイズによる誤差の変調と再入出力により,特定の非線形アクティベーション関数を回避する新しいトレーニング手法であるTwo-Pass Forward Propagationを導入する。
統合光学系における単純なニューラルネットワークを用いた畳み込みニューラルネットワークの新たな実装法を提案する。
論文 参考訳(メタデータ) (2024-08-15T11:27:01Z) - Unconventional Computing based on Four Wave Mixing in Highly Nonlinear
Waveguides [0.0]
高非線形導波路の4波混合効果に基づくフォトニック非従来型加速器の数値解析を行った。
豊かなKerr誘起非線形性を利用することで、入力信号の複数の非線形変換を生成し、複雑な非線形タスクを解くのに使うことができる。
論文 参考訳(メタデータ) (2024-02-14T12:34:38Z) - Optical Neural Ordinary Differential Equations [44.97261923694945]
隠れ層の連続力学を光学的ODE解法でパラメータ化する光学的ニューラル常微分方程式(ON-ODE)アーキテクチャを提案する。
On-ODEは、PNNとフォトニックインテグレータと光フィードバックループとから構成されており、残留ニューラルネットワーク(ResNet)と、チップ領域占有率を効果的に低減したリカレントニューラルネットワークを表現するように構成できる。
論文 参考訳(メタデータ) (2022-09-26T04:04:02Z) - All-optical graph representation learning using integrated diffractive
photonic computing units [51.15389025760809]
フォトニックニューラルネットワークは、電子の代わりに光子を用いて脳にインスパイアされた計算を行う。
我々は、DGNN(diffractive graph neural network)と呼ばれる全光グラフ表現学習アーキテクチャを提案する。
ベンチマークデータベースを用いたノードおよびグラフレベルの分類タスクにおけるDGNN抽出機能の利用を実演し、優れた性能を実現する。
論文 参考訳(メタデータ) (2022-04-23T02:29:48Z) - Rapid characterisation of linear-optical networks via PhaseLift [51.03305009278831]
集積フォトニクスは優れた位相安定性を提供し、半導体産業によって提供される大規模な製造性に依存することができる。
このような光回路に基づく新しいデバイスは、機械学習アプリケーションにおいて高速でエネルギー効率の高い計算を約束する。
線形光ネットワークの転送行列を再構成する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-01T16:04:22Z) - Limited-angle tomographic reconstruction of dense layered objects by
dynamical machine learning [68.9515120904028]
強い散乱準透明物体の有限角トモグラフィーは困難で、非常に不適切な問題である。
このような問題の状況を改善することにより、アーティファクトの削減には、事前の定期化が必要である。
我々は,新しい分割畳み込みゲート再帰ユニット(SC-GRU)をビルディングブロックとして,リカレントニューラルネットワーク(RNN)アーキテクチャを考案した。
論文 参考訳(メタデータ) (2020-07-21T11:48:22Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。