論文の概要: Physics-aware Roughness Optimization for Diffractive Optical Neural
Networks
- arxiv url: http://arxiv.org/abs/2304.01500v1
- Date: Tue, 4 Apr 2023 03:19:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 15:34:00.685570
- Title: Physics-aware Roughness Optimization for Diffractive Optical Neural
Networks
- Title(参考訳): 回折型光ニューラルネットワークの物理認識ラフネス最適化
- Authors: Shanglin Zhou, Yingjie Li, Minhan Lou, Weilu Gao, Zhijie Shi, Cunxi
Yu, Caiwen Ding
- Abstract要約: 微分光学ニューラルネットワーク(DONN)は、従来のディープニューラルネットワークよりも有望な優位性を示している。
本稿では,数値モデリングと実運用における性能差を低減するために,物理対応の回折型光ニューラルネットワークトレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.397285424104469
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As a representative next-generation device/circuit technology beyond CMOS,
diffractive optical neural networks (DONNs) have shown promising advantages
over conventional deep neural networks due to extreme fast computation speed
(light speed) and low energy consumption. However, there is a mismatch, i.e.,
significant prediction accuracy loss, between the DONN numerical modelling and
physical optical device deployment, because of the interpixel interaction
within the diffractive layers. In this work, we propose a physics-aware
diffractive optical neural network training framework to reduce the performance
difference between numerical modeling and practical deployment. Specifically,
we propose the roughness modeling regularization in the training process and
integrate the physics-aware sparsification method to introduce sparsity to the
phase masks to reduce sharp phase changes between adjacent pixels in
diffractive layers. We further develop $2\pi$ periodic optimization to reduce
the roughness of the phase masks to preserve the performance of DONN.
Experiment results demonstrate that, compared to state-of-the-arts, our
physics-aware optimization can provide $35.7\%$, $34.2\%$, $28.1\%$, and
$27.3\%$ reduction in roughness with only accuracy loss on MNIST, FMNIST,
KMNIST, and EMNIST, respectively.
- Abstract(参考訳): cmos以外の次世代デバイス/サーキット技術として、ディフューティブ光ニューラルネットワーク(donn)は、超高速計算速度(光速)と低エネルギー消費により、従来のディープニューラルネットワークよりも有望なアドバンテージを示している。
しかし、拡散層内の画素間相互作用のため、DONN数値モデリングと物理光学デバイス配置の間には、重大な予測精度損失というミスマッチがある。
本研究では,数値モデリングと実用展開の性能差を低減できる物理量認識型光ニューラルネットワークトレーニングフレームワークを提案する。
具体的には, 学習過程における粗さモデリングの正則化を提案し, 物理認識スパーシフィケーション法を統合し, 位相マスクにスパーシティを導入し, 隣接画素間の位相変化を緩和する。
さらに,位相マスクの粗さを低減し,DONNの性能を維持するために,2ドル周期最適化法を開発した。
実験の結果、最先端技術と比較して、我々の物理認識最適化は、それぞれmnist、fmnist、kmnist、emnistの精度の損失だけを減少させることで、35.7\%$、34.2\%$、28.1\%$、および27.3\%$の粗さを低減できることがわかった。
関連論文リスト
- Neural Spatial-Temporal Tensor Representation for Infrared Small Target Detection [3.7038542578642724]
赤外線小ターゲット検出のためのニューラル表現時空間モデル(NeurSTT)を提案する。
NeurSTTは、背景近似における空間的時間的相関を強化し、教師なしの方法でターゲット検出をサポートする。
様々なデータセットの視覚的および数値的な結果から,提案手法は256倍256$のシーケンスで最適以下の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-12-23T05:46:08Z) - 1-bit Quantized On-chip Hybrid Diffraction Neural Network Enabled by Authentic All-optical Fully-connected Architecture [4.594367761345624]
本研究では,行列乗算をDNNに組み込んだ新しいアーキテクチャであるHybrid Diffraction Neural Network(HDNN)を紹介する。
特異位相変調層と振幅変調層を用いて、トレーニングされたニューラルネットワークは、数字認識タスクにおいて96.39%と89%の顕著な精度を示した。
論文 参考訳(メタデータ) (2024-04-11T02:54:17Z) - Gradual Optimization Learning for Conformational Energy Minimization [69.36925478047682]
ニューラルネットワークによるエネルギー最小化のためのGradual Optimization Learning Framework(GOLF)は、必要な追加データを大幅に削減する。
GOLFでトレーニングしたニューラルネットワークは,種々の薬物様分子のベンチマークにおいて,オラクルと同等に動作することを示す。
論文 参考訳(メタデータ) (2023-11-05T11:48:08Z) - Accelerating Deep Neural Networks via Semi-Structured Activation
Sparsity [0.0]
ネットワークの機能マップにスパシティを爆発させることは、推論のレイテンシを低減する方法の1つです。
そこで本研究では,セミ構造化されたアクティベーション空間を小さなランタイム修正によって活用する手法を提案する。
当社のアプローチでは,ImageNetデータセット上のResNet18モデルに対して,最小精度が1.1%の1.25倍の速度向上を実現している。
論文 参考訳(メタデータ) (2023-09-12T22:28:53Z) - Classification robustness to common optical aberrations [64.08840063305313]
本稿では,現実的かつ実用的な光ぼけ効果に対するロバスト性を調べるためのベンチマークである OpticsBench を提案する。
ImageNetの実験では、様々な訓練済みのDNNに対して、ディスク形状のカーネルと比較して、パフォーマンスが強いことが示されている。
我々は,光カーネルをデータ拡張として使用することにより,拡張可能なImageNet-100について述べる。
論文 参考訳(メタデータ) (2023-08-29T08:36:00Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - Physics-aware Differentiable Discrete Codesign for Diffractive Optical
Neural Networks [12.952987240366781]
本研究は,Diffractive Optical Neural Network (DONN) の効率的なトレーニングを可能にする,新しいデバイス間ハードウェア・ソフトウェア符号フレームワークを提案する。
Gumbel-Softmaxは、現実世界のデバイスパラメータからDONNの前方関数への微分可能な離散マッピングを可能にするために使用される。
その結果,提案手法は従来の量子化法に比べて大きな利点があることがわかった。
論文 参考訳(メタデータ) (2022-09-28T17:13:28Z) - Optical Neural Ordinary Differential Equations [44.97261923694945]
隠れ層の連続力学を光学的ODE解法でパラメータ化する光学的ニューラル常微分方程式(ON-ODE)アーキテクチャを提案する。
On-ODEは、PNNとフォトニックインテグレータと光フィードバックループとから構成されており、残留ニューラルネットワーク(ResNet)と、チップ領域占有率を効果的に低減したリカレントニューラルネットワークを表現するように構成できる。
論文 参考訳(メタデータ) (2022-09-26T04:04:02Z) - Single-Shot Optical Neural Network [55.41644538483948]
深層ニューラルネットワークに必要な計算資源を削減するために,「重定常」アナログ光学・電子ハードウェアが提案されている。
我々は、スケーラブルで1層当たり単発の重み付き光学プロセッサを提案する。
論文 参考訳(メタデータ) (2022-05-18T17:49:49Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。