論文の概要: Opto-Electronic Convolutional Neural Network Design Via Direct Kernel Optimization
- arxiv url: http://arxiv.org/abs/2511.02065v1
- Date: Mon, 03 Nov 2025 21:01:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.683692
- Title: Opto-Electronic Convolutional Neural Network Design Via Direct Kernel Optimization
- Title(参考訳): 直接カーネル最適化による光電子畳み込みニューラルネットワーク設計
- Authors: Ali Almuallem, Harshana Weligampola, Abhiram Gnanasambandam, Wei Xu, Dilshan Godaliyadda, Hamid R. Sheikh, Stanley H. Chan, Qi Guo,
- Abstract要約: 光電子ニューラルネットワークは、光学的フロントエンドと電子的バックエンドを統合し、高速でエネルギー効率の良いビジョンを実現する。
我々は、光電子畳み込みニューラルネットワーク(CNN)を設計するための2段階戦略を導入する。
まず、標準電子CNNをトレーニングし、次に、その最初の畳み込み層の直接カーネル最適化により、準曲面アレイとして実装された光学フロントエンドを実現する。
このアプローチは、計算とメモリの要求を数百倍削減し、エンドツーエンドの最適化に比べてトレーニングの安定性を向上させる。
- 参考スコア(独自算出の注目度): 24.845064567059556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Opto-electronic neural networks integrate optical front-ends with electronic back-ends to enable fast and energy-efficient vision. However, conventional end-to-end optimization of both the optical and electronic modules is limited by costly simulations and large parameter spaces. We introduce a two-stage strategy for designing opto-electronic convolutional neural networks (CNNs): first, train a standard electronic CNN, then realize the optical front-end implemented as a metasurface array through direct kernel optimization of its first convolutional layer. This approach reduces computational and memory demands by hundreds of times and improves training stability compared to end-to-end optimization. On monocular depth estimation, the proposed two-stage design achieves twice the accuracy of end-to-end training under the same training time and resource constraints.
- Abstract(参考訳): 光電子ニューラルネットワークは、光学的フロントエンドと電子的バックエンドを統合し、高速でエネルギー効率の良いビジョンを実現する。
しかし、従来の光学モジュールと電子モジュールのエンドツーエンド最適化は、コストのかかるシミュレーションと大きなパラメータ空間によって制限される。
まず、標準電子CNNを訓練し、次に、その最初の畳み込み層を直接カーネル最適化することで、準曲面配列として実装された光学フロントエンドを実現する。
このアプローチは、計算とメモリの要求を数百倍削減し、エンドツーエンドの最適化に比べてトレーニングの安定性を向上させる。
単眼深度推定において,提案した2段階設計は,同じトレーニング時間と資源制約下でのエンドツーエンドトレーニングの精度を2倍に向上する。
関連論文リスト
- Streamlined optical training of large-scale modern deep learning architectures with direct feedback alignment [48.90869997343841]
我々は,ハイブリッド電子フォトニックプラットフォーム上で,ダイレクトフィードバックアライメントと呼ばれる多目的でスケーラブルなトレーニングアルゴリズムを実験的に実装した。
光処理ユニットは、30ワット以下の1500テラオプスで大規模なランダム行列乗算を行う。
トレーニング時間のスケーリングについて検討し、超深度・広帯域ニューラルネットワークに対するハイブリッド光電子アプローチの潜在的な利点を実証する。
論文 参考訳(メタデータ) (2024-09-01T12:48:47Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Real-Time Machine-Learning-Based Optimization Using Input Convex Long Short-Term Memory Network [18.84965086425835]
本稿では,エネルギー・化学系の入力メモリに基づくニューラルネットワークを用いた新しい最適化手法を提案する。
ランタイムの観点から,ICLSTMに基づく最適化の優れた性能を示す。
具体的には、シンガポールのLHTホールディングスにおける実世界のエネルギーシステムのリアルタイム最適化問題において、IC-LSTMに基づく最適化は従来のLSTMによる最適化に比べて少なくとも4倍の精度で達成された。
論文 参考訳(メタデータ) (2023-11-13T09:41:32Z) - Towards Hyperparameter-Agnostic DNN Training via Dynamical System
Insights [4.513581513983453]
本稿では,ディープニューラルネットワーク(DNN),ECCO-DNNに特化した一階最適化手法を提案する。
本手法は, 最適変数軌道を動的システムとしてモデル化し, 軌道形状に基づいてステップサイズを適応的に選択する離散化アルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-10-21T03:45:13Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Graph Neural Network Autoencoders for Efficient Quantum Circuit
Optimisation [69.43216268165402]
我々は、量子回路の最適化にグラフニューラルネットワーク(GNN)オートエンコーダの使い方を初めて提示する。
我々は、量子回路から有向非巡回グラフを構築し、そのグラフを符号化し、その符号化を用いてRL状態を表現する。
我々の手法は、非常に大規模なRL量子回路最適化に向けた最初の現実的な第一歩である。
論文 参考訳(メタデータ) (2023-03-06T16:51:30Z) - Efficient On-Chip Learning for Optical Neural Networks Through
Power-Aware Sparse Zeroth-Order Optimization [12.052076188811052]
光ニューラルネットワーク(ONN)は、ニューロモルフィックコンピューティングにおける記録破りの可能性を示した。
我々は,パワー効率向上のためのONNの潜在能力を最大限に発揮するための,新しいオンチップ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-21T07:00:39Z) - Optimal Gradient Quantization Condition for Communication-Efficient
Distributed Training [99.42912552638168]
勾配の通信は、コンピュータビジョンアプリケーションで複数のデバイスでディープニューラルネットワークをトレーニングするのに費用がかかる。
本研究は,textbfANY勾配分布に対する二値および多値勾配量子化の最適条件を導出する。
最適条件に基づいて, 偏差BinGradと非偏差ORQの2値勾配量子化と多値勾配量子化の2つの新しい量子化手法を開発した。
論文 参考訳(メタデータ) (2020-02-25T18:28:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。