論文の概要: A Diffractive Neural Network with Weight-Noise-Injection Training
- arxiv url: http://arxiv.org/abs/2006.04462v3
- Date: Sat, 20 Jun 2020 10:09:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 00:14:26.405334
- Title: A Diffractive Neural Network with Weight-Noise-Injection Training
- Title(参考訳): ウェイトノイズインジェクショントレーニングを用いたディファレントニューラルネットワーク
- Authors: Jiashuo Shi
- Abstract要約: 重み付きノイズインジェクショントレーニングに基づく強靭性を有する拡散型ニューラルネットワークを提案する。
回折層は一定の表面形状誤差を有する一方で、正確で高速な光学ベースの分類を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a diffractive neural network with strong robustness based on
Weight Noise Injection training, which achieves accurate and fast optical-based
classification while diffraction layers have a certain amount of surface shape
error. To the best of our knowledge, it is the first time that using injection
weight noise during training to reduce the impact of external interference on
deep learning inference results. In the proposed method, the diffractive neural
network learns the mapping between the input image and the label in Weight
Noise Injection mode, making the network's weight insensitive to modest
changes, which improve the network's noise resistance at a lower cost. By
comparing the accuracy of the network under different noise, it is verified
that the proposed network (SRNN) still maintains a higher accuracy under
serious noise.
- Abstract(参考訳): 本稿では, 回折層が一定の表面形状誤差を有するのに対して, 高精度かつ高速な光ベース分類を実現する, 軽量ノイズ注入訓練に基づく強強靭性を有する回折ニューラルネットワークを提案する。
我々の知る限り、深層学習結果に対する外部干渉の影響を低減するために、訓練中に注入重量ノイズを用いることは初めてである。
提案手法では,重み雑音注入モードにおいて入力画像とラベルのマッピングを学習し,ネットワークの重みを緩やかな変化に影響を受けにくくすることで,ネットワークの耐雑音性を低コストで向上させる。
異なる雑音下でのネットワークの精度を比較することにより,提案するネットワーク(srnn)が,重大騒音下でも高い精度を保っていることを検証した。
関連論文リスト
- A Tunable Despeckling Neural Network Stabilized via Diffusion Equation [15.996302571895045]
ガンマノイズ除去は合成開口レーダ(SAR)イメージングの応用において重要な研究領域である。
本稿では,正規化ユニットと正規化ユニットを1つのネットワークにアンロールして,エンドツーエンドのトレーニングを行う,チューニング可能な正規化ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T17:08:43Z) - Impact of white noise in artificial neural networks trained for classification: performance and noise mitigation strategies [0.0]
ニューロンレベルでの加法的および乗法的なガウスホワイトノイズがネットワークの精度に与える影響を考察する。
我々はいくつかのノイズ低減手法を分類タスクの基本設定に適用する。
論文 参考訳(メタデータ) (2024-11-07T01:21:12Z) - Learning Provably Robust Estimators for Inverse Problems via Jittering [51.467236126126366]
簡単な正規化手法であるジッタリングが,逆問題に対する最悪ケース頑健な推定器の学習に有効かどうかを検討する。
ジッタリングは最悪の場合のロバスト性を大幅に向上させるが,デノイング以上の逆問題に最適であることを示す。
論文 参考訳(メタデータ) (2023-07-24T14:19:36Z) - Neural Clamping: Joint Input Perturbation and Temperature Scaling for Neural Network Calibration [62.4971588282174]
我々はニューラルクランプ法と呼ばれる新しい後処理キャリブレーション法を提案する。
実験の結果,Neural Clampingは最先端の処理後のキャリブレーション法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-23T14:18:39Z) - Variational Neural Networks [88.24021148516319]
本稿では,変分ニューラルネットワーク(VNN)と呼ばれるニューラルネットワークにおける不確実性推定手法を提案する。
VNNは、学習可能なサブレイヤで入力を変換することで、レイヤの出力分布のパラメータを生成する。
不確実性評価実験において、VNNはモンテカルロ・ドロップアウトやベイズ・バイ・バックプロパゲーション法よりも優れた不確実性が得られることを示す。
論文 参考訳(メタデータ) (2022-07-04T15:41:02Z) - Robust Learning of Recurrent Neural Networks in Presence of Exogenous
Noise [22.690064709532873]
入力雑音を受けるRNNモデルに対するトラクタブルロバストネス解析を提案する。
線形化手法を用いてロバストネス測度を効率的に推定することができる。
提案手法はリカレントニューラルネットワークのロバスト性を大幅に改善する。
論文 参考訳(メタデータ) (2021-05-03T16:45:05Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z) - Neural networks with late-phase weights [66.72777753269658]
学習後期に重みのサブセットを組み込むことで,SGDの解をさらに改善できることを示す。
学習の終わりに、重み空間における空間平均を取ることにより、1つのモデルを取得する。
論文 参考訳(メタデータ) (2020-07-25T13:23:37Z) - Robust Processing-In-Memory Neural Networks via Noise-Aware
Normalization [26.270754571140735]
PIM加速器は、しばしば物理的成分の固有のノイズに悩まされる。
雑音設定に対してロバストなニューラルネットワーク性能を実現するためのノイズ非依存手法を提案する。
論文 参考訳(メタデータ) (2020-07-07T06:51:28Z) - Noisy Machines: Understanding Noisy Neural Networks and Enhancing
Robustness to Analog Hardware Errors Using Distillation [12.30062870698165]
ノイズの多いニューラルネットワークが、入力と出力の相互情報を失うことによって、学習能力を減らしたことを示す。
そこで本研究では,学習中に知識蒸留とノイズ注入を併用して,より高ノイズロバストなネットワークを実現することを提案する。
提案手法は,従来の最良試行の2倍の耐雑音性を有するモデルを実現する。
論文 参考訳(メタデータ) (2020-01-14T18:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。