論文の概要: Theory and Implementation of Complex-Valued Neural Networks
- arxiv url: http://arxiv.org/abs/2302.08286v1
- Date: Thu, 16 Feb 2023 13:31:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 13:49:17.278480
- Title: Theory and Implementation of Complex-Valued Neural Networks
- Title(参考訳): 複素値ニューラルネットワークの理論と実装
- Authors: Jose Agustin Barrachina, Chengfang Ren, Gilles Vieillard, Christele
Morisseau, Jean-Philippe Ovarlez
- Abstract要約: この研究は複雑価値ニューラルネットワーク(CVNN)の背後にある理論を詳細に説明している。
Wirtinger計算、複雑なバックプロパゲーション、複雑な層のような基本的なモジュールが含まれる。
また、実数値データ上でシミュレーションを行い、ヒルベルト変換を用いて複素領域にキャストし、非複素データに対してもCVNNの可能性を検証する。
- 参考スコア(独自算出の注目度): 9.6556424340252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work explains in detail the theory behind Complex-Valued Neural Network
(CVNN), including Wirtinger calculus, complex backpropagation, and basic
modules such as complex layers, complex activation functions, or complex weight
initialization. We also show the impact of not adapting the weight
initialization correctly to the complex domain. This work presents a strong
focus on the implementation of such modules on Python using cvnn toolbox. We
also perform simulations on real-valued data, casting to the complex domain by
means of the Hilbert Transform, and verifying the potential interest of CVNN
even for non-complex data.
- Abstract(参考訳): この研究は、Wirtinger計算、複雑なバックプロパゲーション、複雑な層、複雑なアクティベーション関数、複雑なウェイト初期化などの基本的なモジュールを含む、複雑価値ニューラルネットワーク(CVNN)の背後にある理論を詳細に説明している。
また、重み初期化を複素領域に正しく適応しないことの影響も示した。
この作業は、cvnnツールボックスを使用したPython上のそのようなモジュールの実装に強く焦点を合わせている。
また,実数値データに対するシミュレーションを行い,ヒルベルト変換により複素領域にキャストし,非複素データにおいてもcvnnの潜在的興味を検証した。
関連論文リスト
- Comprehensive Survey of Complex-Valued Neural Networks: Insights into Backpropagation and Activation Functions [0.0]
現在のANNフレームワークにおける実数実装の普及にもかかわらず、複素数を利用するANNの開発への関心が高まっている。
本稿では,複雑評価ニューラルネットワーク(CVNN)の最近の進歩について述べる。
複雑な入力、重み、AF、出力を含むニューラルネットワークのトレーニングを可能にする、バックプロパゲーションアルゴリズムの複雑な領域への拡張を探索する。
論文 参考訳(メタデータ) (2024-07-27T13:47:16Z) - Defining Neural Network Architecture through Polytope Structures of Dataset [53.512432492636236]
本稿では, ニューラルネットワーク幅の上下境界を定義し, 問題となるデータセットのポリトープ構造から情報を得る。
本研究では,データセットのポリトープ構造を学習したニューラルネットワークから推定できる逆条件を探索するアルゴリズムを開発した。
MNIST、Fashion-MNIST、CIFAR10といった一般的なデータセットは、顔の少ない2つ以上のポリトップを用いて効率的にカプセル化できることが確立されている。
論文 参考訳(メタデータ) (2024-02-04T08:57:42Z) - Complex-valued Neural Networks -- Theory and Analysis [0.0]
この研究はCVNNの異なる構造と分類に対処する。
複素アクティベーション関数の背景にある理論、複素微分可能性に関する意味、CVNN出力層に対する特別なアクティベーションについて述べる。
本研究の目的は,CVNNのダイナミクスと最近の発展を理解することである。
論文 参考訳(メタデータ) (2023-12-11T03:24:26Z) - On the Computational Complexities of Complex-valued Neural Networks [0.0]
複素数値ニューラルネットワーク(CVNN)は、複素領域データのデジタル信号処理に使用される非線形フィルタである。
本稿では,CVNNの量的および計算的複雑さについて述べる。
論文 参考訳(メタデータ) (2023-10-19T18:14:04Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - On Rademacher Complexity-based Generalization Bounds for Deep Learning [18.601449856300984]
Rademacherの複雑性に基づくアプローチは、畳み込みニューラルネットワーク(CNN)上の非空の一般化バウンダリを生成することができることを示す。
以上の結果から,ReLU,Leaky ReLU,Parametric Rectifier Linear Unit,Sigmoid,Tanhなどの特別なアクティベーション機能を持つCNNのネットワーク長に依存しないことがわかった。
論文 参考訳(メタデータ) (2022-08-08T17:24:04Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Spectral Complexity-scaled Generalization Bound of Complex-valued Neural
Networks [78.64167379726163]
本論文は,複素数値ニューラルネットワークの一般化を証明した最初の論文である。
複雑な値の畳み込みニューラルネットワークを異なるデータセット上でトレーニングして実験を行う。
論文 参考訳(メタデータ) (2021-12-07T03:25:25Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z) - Analysis of Deep Complex-Valued Convolutional Neural Networks for MRI
Reconstruction [9.55767753037496]
本研究では、2チャネル実数値ネットワークの代わりに画像再構成のための終端複素値畳み込みニューラルネットワークについて検討する。
複雑な値の畳み込みを持つ複素値CNNは、トレーニング可能なパラメータの数が同じ実値の畳み込みよりも優れた再構成を提供することがわかった。
論文 参考訳(メタデータ) (2020-04-03T19:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。