論文の概要: Express Wavenet -- a low parameter optical neural network with random
shift wavelet pattern
- arxiv url: http://arxiv.org/abs/2001.01458v1
- Date: Mon, 6 Jan 2020 09:45:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 01:50:54.836870
- Title: Express Wavenet -- a low parameter optical neural network with random
shift wavelet pattern
- Title(参考訳): Express Wavenet -- ランダムシフトウェーブレットパターンを持つ低パラメータ光ニューラルネットワーク
- Authors: Yingshi Chen
- Abstract要約: Express Wavenetは改良された光回折ニューラルネットワークである。
ウェーブレットのようなパターンを使って光波の位相を変調する。
MNISTデータセットでは、92%の精度を得るためには1229のパラメータしか必要としない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Express Wavenet is an improved optical diffractive neural network. At each
layer, it uses wavelet-like pattern to modulate the phase of optical waves. For
input image with n2 pixels, express wavenet reduce parameter number from O(n2)
to O(n). Only need one percent of the parameters, and the accuracy is still
very high. In the MNIST dataset, it only needs 1229 parameters to get accuracy
of 92%, while the standard optical network needs 125440 parameters. The random
shift wavelets show the characteristics of optical network more vividly.
Especially the vanishing gradient phenomenon in the training process. We
present a modified expressway structure for this problem. Experiments verified
the effect of random shift wavelet and expressway structure. Our work shows
optical diffractive network would use much fewer parameters than other neural
networks. The source codes are available at
https://github.com/closest-git/ONNet.
- Abstract(参考訳): express wavenetは改良された光回折ニューラルネットワークである。
各層では、ウェーブレットのようなパターンを使って光波の位相を変調する。
n2ピクセルの入力画像の場合、表現ウェーブネットはパラメータ番号をO(n2)からO(n)に還元する。
パラメータの1%しか必要とせず、精度は依然として非常に高い。
MNISTデータセットでは、92%の精度を得るために1229のパラメータしか必要とせず、標準の光学ネットワークでは125440のパラメータが必要である。
ランダムシフトウェーブレットは、より鮮明に光ネットワークの特性を示す。
特に訓練過程における消失勾配現象。
この問題に対する高速道路構造の変更について述べる。
ランダムシフトウェーブレットと高速道路構造の効果を実験により検証した。
我々の研究は、光回折ネットワークが他のニューラルネットワークよりもはるかに少ないパラメータを使用することを示した。
ソースコードはhttps://github.com/closest-git/onnetで入手できる。
関連論文リスト
- Efficient View Synthesis with Neural Radiance Distribution Field [61.22920276806721]
我々は,リアルタイムに効率的なビュー合成を目標とするニューラルレージアンス分布場(NeRDF)という新しい表現を提案する。
我々は、NeLFのように1ピクセル当たりの1つのネットワーク転送でレンダリング速度を保ちながら、NeRFに似た小さなネットワークを使用する。
実験の結果,提案手法は既存の手法よりも速度,品質,ネットワークサイズとのトレードオフが良好であることがわかった。
論文 参考訳(メタデータ) (2023-08-22T02:23:28Z) - Frequency Regularization: Restricting Information Redundancy of
Convolutional Neural Networks [6.387263468033964]
畳み込みニューラルネットワークは多くのコンピュータビジョンタスクにおいて印象的な結果を示している。
これらのネットワークのサイズが大きくなると、大量のネットワークパラメータが原因で、情報の過負荷が懸念される。
周波数領域におけるネットワークパラメータの非ゼロ要素を制限するために周波数規則化を提案する。
論文 参考訳(メタデータ) (2023-04-17T03:32:29Z) - WaveFit: An Iterative and Non-autoregressive Neural Vocoder based on
Fixed-Point Iteration [47.07494621683752]
本研究では,TextitWaveFitと呼ばれる高速で高品質なニューラルボコーダを提案する。
WaveFitは、GANの本質を固定点反復に基づくDDPMのような反復フレームワークに統合します。
主観的聴力試験では,人間の自然な発話と5つの反復によるWaveFitで合成された音声の自然性に統計的に有意な差は認められなかった。
論文 参考訳(メタデータ) (2022-10-03T15:45:05Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Trainable Wavelet Neural Network for Non-Stationary Signals [0.0]
本研究は,非定常信号に適合するフィルタバンクを学習するためのウェーブレットニューラルネットワークを導入し,デジタル信号処理の解釈性と性能を向上させる。
このネットワークは、複雑なモレットウェーブレットのパラメータ化関数である畳み込みがニューラルネットワークの第1層としてウェーブレット変換を使用する。
論文 参考訳(メタデータ) (2022-05-06T16:41:27Z) - R2L: Distilling Neural Radiance Field to Neural Light Field for
Efficient Novel View Synthesis [76.07010495581535]
一つのピクセルをレンダリングするには、数百回もNeural Radiance Fieldネットワークに問い合わせる必要がある。
NeLFは、新しい視点において、NeRFに対してより直接的な表現を提示する。
ディープNeLFネットワークをうまく学習する鍵は、十分なデータを持つことである。
論文 参考訳(メタデータ) (2022-03-31T17:57:05Z) - NeuralDPS: Neural Deterministic Plus Stochastic Model with Multiband
Excitation for Noise-Controllable Waveform Generation [67.96138567288197]
本稿では,高い音声品質を保ち,高い合成効率とノイズ制御性を得ることができるニューラルDPSというニューラルボコーダを提案する。
ウェーブネットのボコーダより少なくとも280倍高速な波形を生成する。
また、単一コア上でのWaveGANの合成効率よりも28%高速である。
論文 参考訳(メタデータ) (2022-03-05T08:15:29Z) - Cryptanalytic Extraction of Neural Network Models [56.738871473622865]
遠隔モデルのパラメータを浮動小数点精度まで効率的に盗むことができる差動攻撃を導入する。
我々の攻撃は、ReLUニューラルネットワークが一括線形関数であるという事実に依存している。
220倍の正確さと100倍のクエリを必要とするモデルを抽出する。
論文 参考訳(メタデータ) (2020-03-10T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。