論文の概要: A Survey of Recursive and Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2510.17867v1
- Date: Thu, 16 Oct 2025 03:12:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.236492
- Title: A Survey of Recursive and Recurrent Neural Networks
- Title(参考訳): Recursive and Recurrent Neural Networks の調査
- Authors: Jian-wei Liu, Bing-rong Xu, Zhi-yan Song,
- Abstract要約: 再帰的および再帰的ニューラルネットワークは、ネットワーク構造、訓練対象関数、学習アルゴリズムの実装に基づいて分類される。
様々なネットワークが相互に交差し、相互に依存して複雑な関係ネットワークを形成する。
様々なネットワークの発展と収束の文脈において、複雑なシーケンス、音声および画像の多くの問題が解決される。
- 参考スコア(独自算出の注目度): 8.521259115734464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, the branches of recursive and recurrent neural networks are classified in detail according to the network structure, training objective function and learning algorithm implementation. They are roughly divided into three categories: The first category is General Recursive and Recurrent Neural Networks, including Basic Recursive and Recurrent Neural Networks, Long Short Term Memory Recursive and Recurrent Neural Networks, Convolutional Recursive and Recurrent Neural Networks, Differential Recursive and Recurrent Neural Networks, One-Layer Recursive and Recurrent Neural Networks, High-Order Recursive and Recurrent Neural Networks, Highway Networks, Multidimensional Recursive and Recurrent Neural Networks, Bidirectional Recursive and Recurrent Neural Networks; the second category is Structured Recursive and Recurrent Neural Networks, including Grid Recursive and Recurrent Neural Networks, Graph Recursive and Recurrent Neural Networks, Temporal Recursive and Recurrent Neural Networks, Lattice Recursive and Recurrent Neural Networks, Hierarchical Recursive and Recurrent Neural Networks, Tree Recursive and Recurrent Neural Networks; the third category is Other Recursive and Recurrent Neural Networks, including Array Long Short Term Memory, Nested and Stacked Recursive and Recurrent Neural Networks, Memory Recursive and Recurrent Neural Networks. Various networks cross each other and even rely on each other to form a complex network of relationships. In the context of the development and convergence of various networks, many complex sequence, speech and image problems are solved. After a detailed description of the principle and structure of the above model and model deformation, the research progress and application of each model are described, and finally the recursive and recurrent neural network models are prospected and summarized.
- Abstract(参考訳): 本稿では,再帰的ニューラルネットワークと再帰的ニューラルネットワークの分岐を,ネットワーク構造,学習対象関数,学習アルゴリズムの実装に応じて詳細に分類する。
基本再帰的・再帰的ニューラルネットワーク、長期再帰的・再帰的ニューラルネットワーク、畳み込み再帰的・再帰的ニューラルネットワーク、差分再帰的・再帰的ニューラルネットワーク、一層再帰的・再帰的ニューラルネットワーク、高次再帰的・再帰的ニューラルネットワーク、ハイウェイネットワーク、多次元再帰的・再帰的ニューラルネットワーク、双方向再帰的・再帰的ニューラルネットワーク、構造的再帰的・再帰的ニューラルネットワーク、グリッド再帰的・再帰的ニューラルネットワーク、グラフ再帰的・再帰的・再帰的ニューラルネットワーク、時間的再帰的ニューラルネットワーク、再帰的・再帰的ニューラルネットワーク、再帰的・再帰的ニューラルネットワーク、再帰的・再帰的ニューラルネットワーク、その他の再帰的・再帰的ニューラルネットワーク、第三次再帰的・再帰的ニューラルネットワーク、第三次再帰的・再帰的ニューラルネットワーク、第二次再帰的ニューラルネットワーク、第三次再帰的・再帰的ニューラルネットワーク、第三次再帰的・再帰的ニューラルネットワーク、第三次再帰的・再帰的ニューラルネットワーク、第三次再帰的・再帰的・再帰的ニューラルネットワークである。
様々なネットワークが相互に交差し、相互に依存して複雑な関係ネットワークを形成する。
様々なネットワークの発展と収束の文脈において、複雑なシーケンス、音声および画像の多くの問題が解決される。
上記のモデルの原理と構造とモデル変形を詳細に記述した後、各モデルの研究開発と適用について述べ、最後に再帰的および再帰的ニューラルネットワークモデルについて概説し、要約する。
関連論文リスト
- Toric geometry of ReLU neural networks [0.0]
トーリック幾何学とReLUニューラルネットワークの接続を確立する。
この研究は、ReLUニューラルネットワークの熱帯幾何学とトーリック幾何学の関連も明らかにしている。
論文 参考訳(メタデータ) (2025-09-07T02:08:23Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Web Neural Network with Complete DiGraphs [8.2727500676707]
現在のニューラルネットワークは、神経細胞、畳み込み、再発などの脳構造を曖昧に模倣する構造を持っている。
本稿では、ニューロン接続にサイクルを導入し、他のネットワーク層でよく見られるシーケンシャルな性質を除去することにより、新たな構造特性を付加する。
さらに、モデルには、ニューラルネットワークにインスパイアされた連続的な入力と出力があり、ネットワークは最終結果を返すのではなく、分類のプロセスを学ぶことができる。
論文 参考訳(メタデータ) (2024-01-07T05:12:10Z) - On The Expressivity of Recurrent Neural Cascades [48.87943990557107]
リカレントニューラルカスケード(Recurrent Neural Cascades、RNC)は、リカレントニューラルネットワークであり、リカレントニューロン間で循環的依存を持たない。
RNCは、グループを実装可能なニューロンを導入することで、すべての正規言語を表現できることを示す。
論文 参考訳(メタデータ) (2023-12-14T15:47:26Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - Lecture Notes: Neural Network Architectures [0.0]
これらの講義ノートは、数学的観点からニューラルネットワークアーキテクチャの概要を提供する。
以下は、Feedforward Neural Network、Convolutional Neural Network、ResNet、Recurrent Neural Networkである。
論文 参考訳(メタデータ) (2023-04-11T10:54:36Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Implicit recurrent networks: A novel approach to stationary input
processing with recurrent neural networks in deep learning [0.0]
本研究では,ニューラルネットの新たな実装を深層学習に導入し,検証する。
繰り返しネットワークの暗黙的な実装にバックプロパゲーションアルゴリズムを実装するアルゴリズムを提案する。
シングルレイヤの暗黙的リカレントネットワークはXOR問題を解くことができ、一方、単調に活性化関数が増加するフィードフォワードネットワークは、このタスクで失敗する。
論文 参考訳(メタデータ) (2020-10-20T18:55:32Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。