論文の概要: On the Computational Complexities of Complex-valued Neural Networks
- arxiv url: http://arxiv.org/abs/2310.13075v1
- Date: Thu, 19 Oct 2023 18:14:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 01:46:31.188136
- Title: On the Computational Complexities of Complex-valued Neural Networks
- Title(参考訳): 複素値ニューラルネットワークの計算複雑性について
- Authors: Kayol Soares Mayer, Jonathan Aguiar Soares, Ariadne Arrais Cruz,
Dalton Soares Arantes
- Abstract要約: 複素数値ニューラルネットワーク(CVNN)は、複素領域データのデジタル信号処理に使用される非線形フィルタである。
本稿では,CVNNの量的および計算的複雑さについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Complex-valued neural networks (CVNNs) are nonlinear filters used in the
digital signal processing of complex-domain data. Compared with real-valued
neural networks~(RVNNs), CVNNs can directly handle complex-valued input and
output signals due to their complex domain parameters and activation functions.
With the trend toward low-power systems, computational complexity analysis has
become essential for measuring an algorithm's power consumption. Therefore,
this paper presents both the quantitative and asymptotic computational
complexities of CVNNs. This is a crucial tool in deciding which algorithm to
implement. The mathematical operations are described in terms of the number of
real-valued multiplications, as these are the most demanding operations. To
determine which CVNN can be implemented in a low-power system, quantitative
computational complexities can be used to accurately estimate the number of
floating-point operations. We have also investigated the computational
complexities of CVNNs discussed in some studies presented in the literature.
- Abstract(参考訳): 複素数値ニューラルネットワーク(CVNN)は、複素領域データのデジタル信号処理に使用される非線形フィルタである。
実数値ニューラルネットワーク~(RVNN)と比較して、CVNNは複雑なドメインパラメータとアクティベーション関数のために、複雑な値の入力および出力信号を直接処理できる。
低消費電力システムへのトレンドにより、計算複雑性解析はアルゴリズムの消費電力を測定するために必須となっている。
そこで本研究では,CVNNの定量的・漸近的な計算複雑性について述べる。
これはどのアルゴリズムを実装するかを決める上で重要なツールです。
数理演算は実数値乗算の数の観点から記述されるが、これは最も要求の多い演算である。
低消費電力システムでどのCVNNを実装できるかを判断するために、数値計算の複雑さを用いて浮動小数点演算数を正確に推定することができる。
また,本研究では,CVNNの計算複雑性についても検討した。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Comprehensive Survey of Complex-Valued Neural Networks: Insights into Backpropagation and Activation Functions [0.0]
現在のANNフレームワークにおける実数実装の普及にもかかわらず、複素数を利用するANNの開発への関心が高まっている。
本稿では,複雑評価ニューラルネットワーク(CVNN)の最近の進歩について述べる。
複雑な入力、重み、AF、出力を含むニューラルネットワークのトレーニングを可能にする、バックプロパゲーションアルゴリズムの複雑な領域への拡張を探索する。
論文 参考訳(メタデータ) (2024-07-27T13:47:16Z) - Complex-valued Neural Networks -- Theory and Analysis [0.0]
この研究はCVNNの異なる構造と分類に対処する。
複素アクティベーション関数の背景にある理論、複素微分可能性に関する意味、CVNN出力層に対する特別なアクティベーションについて述べる。
本研究の目的は,CVNNのダイナミクスと最近の発展を理解することである。
論文 参考訳(メタデータ) (2023-12-11T03:24:26Z) - An exact mathematical description of computation with transient
spatiotemporal dynamics in a complex-valued neural network [33.7054351451505]
線形時間遅延相互作用を持つ複素数値ニューラルネットワーク(-NN)について検討する。
cv-NNは、部分的に同期したキメラ適応状態を含む洗練されたダイナミクスを表示する。
我々は,生体ニューロンによってcv-NN計算の計算が可能であることが実証された。
論文 参考訳(メタデータ) (2023-11-28T02:23:30Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Computational Complexity Evaluation of Neural Network Applications in
Signal Processing [3.4656382116457767]
本稿では,デジタル信号処理におけるニューラルネットワーク層の計算複雑性を評価し,比較するための体系的アプローチを提案する。
4つの指標のうちの1つは、加算数とビットシフト数 (NABS) と呼ばれ、不均一な量子化のために新たに導入されたものである。
論文 参考訳(メタデータ) (2022-06-24T10:02:02Z) - Spectral Complexity-scaled Generalization Bound of Complex-valued Neural
Networks [78.64167379726163]
本論文は,複素数値ニューラルネットワークの一般化を証明した最初の論文である。
複雑な値の畳み込みニューラルネットワークを異なるデータセット上でトレーニングして実験を行う。
論文 参考訳(メタデータ) (2021-12-07T03:25:25Z) - A Survey of Quantization Methods for Efficient Neural Network Inference [75.55159744950859]
量子化は、必要なビット数を最小限に抑えるために、固定された離散数の集合に連続実数値を分散する問題である。
近年、コンピュータビジョン、自然言語処理、関連分野でのニューラルネットワークモデルの顕著な性能のために最前線に達しています。
浮動小数点表現から4ビット以下の低精度固定整数値への移行は、メモリフットプリントとレイテンシを16倍削減する可能性を秘めている。
論文 参考訳(メタデータ) (2021-03-25T06:57:11Z) - A Survey of Complex-Valued Neural Networks [4.211128681972148]
人工知能ニューラルネットワーク(ANN)ベースの機械学習モデルは、コンピュータビジョン、信号処理、無線通信など多くの分野に広く応用されている。
ANNや機械学習フレームワークの現在の実装のほとんどは、複素数ではなく実数を使っている。
複雑な数値を使用してANNを構築することへの関心が高まっており、実際の価値を持つニューラルネットワークよりも、いわゆるCVNN(complex-valued Neural Network)の潜在的なアドバンテージを探っている。
論文 参考訳(メタデータ) (2021-01-28T19:40:50Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。