論文の概要: Hypercomplex-Valued Recurrent Correlation Neural Networks
- arxiv url: http://arxiv.org/abs/2002.00027v1
- Date: Fri, 31 Jan 2020 19:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 05:36:22.353747
- Title: Hypercomplex-Valued Recurrent Correlation Neural Networks
- Title(参考訳): 超複素値リカレント相関ニューラルネットワーク
- Authors: Marcos Eduardo Valle and Rodolfo Anibal Lobo
- Abstract要約: リカレント相関ニューラルネットワーク(RCNN)は、高容量な連想記憶を実装するために用いられる。
本稿では,超複素数値RCNNの幅広いクラスに対する数学的背景について述べる。
二極性、複素性、双極性、双曲性、四元性、およびオクトニオン値を持つRCNNの例は、理論的結果を説明するために与えられる。
- 参考スコア(独自算出の注目度): 1.3706331473063877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent correlation neural networks (RCNNs), introduced by Chiueh and
Goodman as an improved version of the bipolar correlation-based Hopfield neural
network, can be used to implement high-capacity associative memories. In this
paper, we extend the bipolar RCNNs for processing hypercomplex-valued data.
Precisely, we present the mathematical background for a broad class of
hypercomplex-valued RCNNs. Then, we provide the necessary conditions which
ensure that a hypercomplex-valued RCNN always settles at an equilibrium using
either synchronous or asynchronous update modes. Examples with bipolar,
complex, hyperbolic, quaternion, and octonion-valued RCNNs are given to
illustrate the theoretical results. Finally, computational experiments confirm
the potential application of hypercomplex-valued RCNNs as associative memories
designed for the storage and recall of gray-scale images.
- Abstract(参考訳): chiuehとgoodmanがバイポーラ相関ベースのホップフィールドニューラルネットワークの改良版として導入したrecurrent correlation neural networks (rcnns)は、高容量連想記憶の実装に使用できる。
本稿では,超複素数値データ処理のためのバイポーラRCNNを拡張する。
正確には、超複素値rcnnの幅広いクラスに対する数学的背景を示す。
そして,超複素値RCNNが同期モードと非同期更新モードのいずれかを用いて常に平衡に落ち着くために必要な条件を提供する。
二極性、複素性、双曲性、四元性、およびオクトニオン値のRCNNの例は、理論的結果を説明するために与えられる。
最後に, 計算実験により, グレースケール画像の記憶と記憶のための連想記憶として, ハイパーコンプレックス値rcnnの潜在的な応用が確認された。
関連論文リスト
- Hardware-Friendly Implementation of Physical Reservoir Computing with CMOS-based Time-domain Analog Spiking Neurons [0.26963330643873434]
本稿では, 相補的金属酸化物半導体(CMOS)プラットフォーム上でのハードウェアフレンドリーな物理貯水池計算のためのスパイクニューラルネットワーク(SNN)を提案する。
短期記憶と排他的ORタスクによるRCと、97.7%の精度で音声桁認識タスクを実演する。
論文 参考訳(メタデータ) (2024-09-18T00:23:00Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - VQ-T: RNN Transducers using Vector-Quantized Prediction Network States [52.48566999668521]
本稿では,RNNトランスデューサの予測ネットワークにおけるベクトル量子化長短期記憶単位を提案する。
ASRネットワークと協調して離散表現を訓練することにより、格子生成のために仮説を積極的にマージすることができる。
提案するVQ RNNトランスデューサは,通常の予測ネットワークを持つトランスデューサよりもASR性能が向上することを示す。
論文 参考訳(メタデータ) (2022-08-03T02:45:52Z) - Equivariant Hypergraph Diffusion Neural Operators [81.32770440890303]
ハイパーグラフを符号化するためにニューラルネットワークを使用するハイパーグラフニューラルネットワーク(HNN)は、データの高次関係をモデル化する有望な方法を提供する。
本研究ではED-HNNと呼ばれる新しいHNNアーキテクチャを提案する。
実世界の9つのハイパーグラフデータセットのノード分類におけるED-HNNの評価を行った。
論文 参考訳(メタデータ) (2022-07-14T06:17:00Z) - Cross-Frequency Coupling Increases Memory Capacity in Oscillatory Neural
Networks [69.42260428921436]
クロス周波数カップリング(CFC)は、ニューロンの集団間での情報統合と関連している。
我々は,海馬および大脳皮質における観測された$theta - gamma$振動回路の計算的役割を予測するCFCのモデルを構築した。
CFCの存在は, 可塑性シナプスによって結合された神経細胞のメモリ容量を増加させることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:13:36Z) - An Analysis of Complex-Valued CNNs for RF Data-Driven Wireless Device
Classification [12.810432378755904]
最近のディープニューラルネットワークに基づくデバイス分類研究は、複素数値ニューラルネットワーク(CVNN)が実数値ニューラルネットワーク(RVNN)よりも高い分類精度が得られることを示している。
本研究は、実際のLoRaおよびWiFi RFデータセットを用いて、この傾向についてより深く理解する。
論文 参考訳(メタデータ) (2022-02-20T10:35:20Z) - Convolutional Neural Networks with Gated Recurrent Connections [25.806036745901114]
リカレント畳み込みニューラルネットワーク(RCNN)は、動物の視覚系における豊富なリカレント接続にインスパイアされている。
本稿では、繰り返し接続にゲートを導入することにより、ニューロンの受容野(RF)を変調することを提案する。
GRCNNは、オブジェクト認識、シーンテキスト認識、オブジェクト検出などのコンピュータビジョンタスクで評価された。
論文 参考訳(メタデータ) (2021-06-05T10:14:59Z) - Coupled Oscillatory Recurrent Neural Network (coRNN): An accurate and
(gradient) stable architecture for learning long time dependencies [15.2292571922932]
本稿では,リカレントニューラルネットワークのための新しいアーキテクチャを提案する。
提案するRNNは, 2次常微分方程式系の時間分解に基づく。
実験の結果,提案したRNNは,様々なベンチマークによる最先端技術に匹敵する性能を示した。
論文 参考訳(メタデータ) (2020-10-02T12:35:04Z) - Optimal Rates for Averaged Stochastic Gradient Descent under Neural
Tangent Kernel Regime [50.510421854168065]
平均勾配勾配勾配は極小収束率が得られることを示す。
本稿では、ReLUネットワークのNTKで指定されたターゲット関数を最適収束速度で学習できることを示す。
論文 参考訳(メタデータ) (2020-06-22T14:31:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。