論文の概要: Noise mitigation strategies in physical feedforward neural networks
- arxiv url: http://arxiv.org/abs/2204.09461v1
- Date: Wed, 20 Apr 2022 13:51:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 15:41:51.890149
- Title: Noise mitigation strategies in physical feedforward neural networks
- Title(参考訳): 物理フィードフォワードニューラルネットワークにおけるノイズ緩和戦略
- Authors: Nadezhda Semenova and Daniel Brunner
- Abstract要約: 物理ニューラルネットワークは、次世代人工知能ハードウェアの候補候補として期待されている。
我々は、接続トポロジ、ゴーストニューロン、およびノイズ緩和戦略としてプールを導入する。
本研究は,MNIST手書き桁を分類する完全トレーニングニューラルネットワークに基づく組み合わせ手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical neural networks are promising candidates for next generation
artificial intelligence hardware. In such architectures, neurons and
connections are physically realized and do not leverage digital, i.e.
practically infinite signal-to-noise ratio digital concepts. They therefore are
prone to noise, and base don analytical derivations we here introduce
connectivity topologies, ghost neurons as well as pooling as noise mitigation
strategies. Finally, we demonstrate the effectiveness of the combined methods
based on a fully trained neural network classifying the MNIST handwritten
digits.
- Abstract(参考訳): 物理的なニューラルネットワークは、次世代の人工知能ハードウェアの候補として有望だ。
このようなアーキテクチャでは、ニューロンと接続は物理的に実現され、デジタル、すなわち事実上無限の信号対雑音比デジタル概念を活用しない。
したがって、ノイズの傾向があり、ベースドン分析の導出により、接続トポロジ、ゴーストニューロン、およびノイズ緩和戦略としてのプールが導入される。
最後に,mnist手書き文字を完全訓練したニューラルネットワークを用いて,組み合わせ手法の有効性を示す。
関連論文リスト
- Impact of white noise in artificial neural networks trained for classification: performance and noise mitigation strategies [0.0]
ニューロンレベルでの加法的および乗法的なガウスホワイトノイズがネットワークの精度に与える影響を考察する。
我々はいくつかのノイズ低減手法を分類タスクの基本設定に適用する。
論文 参考訳(メタデータ) (2024-11-07T01:21:12Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Stochastic resonance neurons in artificial neural networks [0.0]
アーキテクチャの固有部分として共鳴を用いた新しいタイプのニューラルネットワークを提案する。
このようなニューラルネットワークは、ノイズの影響に対してより堅牢であることを示す。
論文 参考訳(メタデータ) (2022-05-06T18:42:36Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Physical Constraint Embedded Neural Networks for inference and noise
regulation [0.0]
ニューラルネットワークに偶数ノード対称性と保存則を埋め込む方法を提案する。
先行知識を使わずに正確に対称性を推測できることを実証する。
物理拘束型組込みニューラルネットワークの雑音耐性特性を強調した。
論文 参考訳(メタデータ) (2021-05-19T14:07:20Z) - Understanding and mitigating noise in trained deep neural networks [0.0]
学習された完全連結層における雑音性非線形ニューロンからなるディープニューラルネットワークにおける雑音の伝搬について検討した。
ノイズ蓄積は一般に束縛されており、追加のネットワーク層を追加しても信号の雑音比が限界を超えないことがわかった。
我々は、ノイズ耐性を持つ新しいニューラルネットワークハードウェアを設計できる基準を特定した。
論文 参考訳(メタデータ) (2021-03-12T17:16:26Z) - ResiliNet: Failure-Resilient Inference in Distributed Neural Networks [56.255913459850674]
ResiliNetは、分散ニューラルネットワークにおいて物理ノード障害に耐性を持たせるためのスキームである。
Failoutは、ドロップアウトを使用したトレーニング中の物理ノード障害条件をシミュレートし、分散ニューラルネットワークのレジリエンスを改善するように設計されている。
論文 参考訳(メタデータ) (2020-02-18T05:58:24Z) - Noisy Machines: Understanding Noisy Neural Networks and Enhancing
Robustness to Analog Hardware Errors Using Distillation [12.30062870698165]
ノイズの多いニューラルネットワークが、入力と出力の相互情報を失うことによって、学習能力を減らしたことを示す。
そこで本研究では,学習中に知識蒸留とノイズ注入を併用して,より高ノイズロバストなネットワークを実現することを提案する。
提案手法は,従来の最良試行の2倍の耐雑音性を有するモデルを実現する。
論文 参考訳(メタデータ) (2020-01-14T18:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。