論文の概要: Complex-valued Neural Networks -- Theory and Analysis
- arxiv url: http://arxiv.org/abs/2312.06087v1
- Date: Mon, 11 Dec 2023 03:24:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 17:03:02.726037
- Title: Complex-valued Neural Networks -- Theory and Analysis
- Title(参考訳): 複素値ニューラルネットワーク --理論と解析
- Authors: Rayyan Abdalla
- Abstract要約: この研究はCVNNの異なる構造と分類に対処する。
複素アクティベーション関数の背景にある理論、複素微分可能性に関する意味、CVNN出力層に対する特別なアクティベーションについて述べる。
本研究の目的は,CVNNのダイナミクスと最近の発展を理解することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Complex-valued neural networks (CVNNs) have recently been successful in
various pioneering areas which involve wave-typed information and
frequency-domain processing. This work addresses different structures and
classification of CVNNs. The theory behind complex activation functions,
implications related to complex differentiability and special activations for
CVNN output layers are presented. The work also discusses CVNN learning and
optimization using gradient and non-gradient based algorithms. Complex
Backpropagation utilizing complex chain rule is also explained in terms of
Wirtinger calculus. Moreover, special modules for building CVNN models, such as
complex batch normalization and complex random initialization are also
discussed. The work also highlights libraries and software blocks proposed for
CVNN implementations and discusses future directions. The objective of this
work is to understand the dynamics and most recent developments of CVNNs.
- Abstract(参考訳): 複素数値ニューラルネットワーク(CVNN)は、最近波動型情報と周波数領域処理を含む様々な先駆的な分野で成功している。
この研究はCVNNの異なる構造と分類に対処する。
複素活性化関数の背後にある理論、複素微分可能性とcvnn出力層の特殊活性化との関連について述べる。
また、勾配と非勾配に基づくアルゴリズムを用いたcvnn学習と最適化についても論じている。
複素連鎖則を利用した複素バックプロパゲーションは、ヴィルティンガー計算でも説明できる。
さらに,複雑なバッチ正規化や複雑な乱初期化など,CVNNモデルを構築するための特別なモジュールについても論じる。
また、CVNNの実装のために提案されたライブラリやソフトウェアブロックを強調し、今後の方向性について議論する。
本研究の目的は,CVNNのダイナミクスと最近の発展を理解することである。
関連論文リスト
- Comprehensive Survey of Complex-Valued Neural Networks: Insights into Backpropagation and Activation Functions [0.0]
現在のANNフレームワークにおける実数実装の普及にもかかわらず、複素数を利用するANNの開発への関心が高まっている。
本稿では,複雑評価ニューラルネットワーク(CVNN)の最近の進歩について述べる。
複雑な入力、重み、AF、出力を含むニューラルネットワークのトレーニングを可能にする、バックプロパゲーションアルゴリズムの複雑な領域への拡張を探索する。
論文 参考訳(メタデータ) (2024-07-27T13:47:16Z) - On the Computational Complexities of Complex-valued Neural Networks [0.0]
複素数値ニューラルネットワーク(CVNN)は、複素領域データのデジタル信号処理に使用される非線形フィルタである。
本稿では,CVNNの量的および計算的複雑さについて述べる。
論文 参考訳(メタデータ) (2023-10-19T18:14:04Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Theory and Implementation of Complex-Valued Neural Networks [9.6556424340252]
この研究は複雑価値ニューラルネットワーク(CVNN)の背後にある理論を詳細に説明している。
Wirtinger計算、複雑なバックプロパゲーション、複雑な層のような基本的なモジュールが含まれる。
また、実数値データ上でシミュレーションを行い、ヒルベルト変換を用いて複素領域にキャストし、非複素データに対してもCVNNの可能性を検証する。
論文 参考訳(メタデータ) (2023-02-16T13:31:10Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Spectral Complexity-scaled Generalization Bound of Complex-valued Neural
Networks [78.64167379726163]
本論文は,複素数値ニューラルネットワークの一般化を証明した最初の論文である。
複雑な値の畳み込みニューラルネットワークを異なるデータセット上でトレーニングして実験を行う。
論文 参考訳(メタデータ) (2021-12-07T03:25:25Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - A Survey of Complex-Valued Neural Networks [4.211128681972148]
人工知能ニューラルネットワーク(ANN)ベースの機械学習モデルは、コンピュータビジョン、信号処理、無線通信など多くの分野に広く応用されている。
ANNや機械学習フレームワークの現在の実装のほとんどは、複素数ではなく実数を使っている。
複雑な数値を使用してANNを構築することへの関心が高まっており、実際の価値を持つニューラルネットワークよりも、いわゆるCVNN(complex-valued Neural Network)の潜在的なアドバンテージを探っている。
論文 参考訳(メタデータ) (2021-01-28T19:40:50Z) - The geometry of integration in text classification RNNs [20.76659136484842]
本研究では,自然テキスト分類タスクと合成テキスト分類タスクの両方のバッテリで訓練されたリカレントネットワークについて検討する。
これらの訓練されたRNNの力学は、解釈可能かつ低次元であることがわかった。
我々の観測は、複数のアーキテクチャとデータセットにまたがっており、RNNがテキスト分類を行うのに使用する共通メカニズムを反映している。
論文 参考訳(メタデータ) (2020-10-28T17:58:53Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。