論文の概要: Complex-Valued vs. Real-Valued Neural Networks for Classification
Perspectives: An Example on Non-Circular Data
- arxiv url: http://arxiv.org/abs/2009.08340v2
- Date: Tue, 13 Apr 2021 12:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 08:33:21.203265
- Title: Complex-Valued vs. Real-Valued Neural Networks for Classification
Perspectives: An Example on Non-Circular Data
- Title(参考訳): 分類視点のための複素値対実値ニューラルネットワーク:非回路データの例
- Authors: Jose Agustin Barrachina and Chenfang Ren and Christele Morisseau and
Gilles Vieillard and Jean-Philippe Ovarlez
- Abstract要約: 複素数値データセットの分類タスクに対する複素値ニューラルネットワーク(CVNN)の潜在的関心を示す。
CVNN精度は実値ニューラルネットワーク(RVNN)よりも統計的に高い平均と中央値のばらつきと低いばらつきを示す
- 参考スコア(独自算出の注目度): 10.06162739966462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The contributions of this paper are twofold. First, we show the potential
interest of Complex-Valued Neural Network (CVNN) on classification tasks for
complex-valued datasets. To highlight this assertion, we investigate an example
of complex-valued data in which the real and imaginary parts are statistically
dependent through the property of non-circularity. In this context, the
performance of fully connected feed-forward CVNNs is compared against a
real-valued equivalent model. The results show that CVNN performs better for a
wide variety of architectures and data structures. CVNN accuracy presents a
statistically higher mean and median and lower variance than Real-Valued Neural
Network (RVNN). Furthermore, if no regularization technique is used, CVNN
exhibits lower overfitting. The second contribution is the release of a Python
library (Barrachina 2019) using Tensorflow as back-end that enables the
implementation and training of CVNNs in the hopes of motivating further
research on this area.
- Abstract(参考訳): この論文の貢献は2つある。
まず、複素値データセットの分類タスクに対する複素値ニューラルネットワーク(CVNN)の潜在的関心を示す。
この主張を強調するために,実部と虚部が非円性の性質により統計的に依存する複素数値データの例を考察する。
この文脈では、完全に接続されたフィードフォワードCVNNの性能を実数値等価モデルと比較する。
その結果,CVNNは多様なアーキテクチャやデータ構造に対して優れた性能を示すことがわかった。
CVNN精度は、実値ニューラルネットワーク(RVNN)よりも統計的に高い平均と中央値と低い分散を示す。
さらに、正規化技術が使用されない場合、CVNNは低いオーバーフィッティングを示す。
2つ目のコントリビューションは、Tensorflowをバックエンドとして使用したPythonライブラリ(Barrachina 2019)のリリースである。
関連論文リスト
- Statistical Properties of Deep Neural Networks with Dependent Data [0.0]
本稿では, ディープニューラルネットワーク (DNN) 推定器の統計特性について, 従属データに基づく検討を行った。
このフレームワークは、他のDNNアーキテクチャや時系列アプリケーションの研究の可能性も提供する。
論文 参考訳(メタデータ) (2024-10-14T21:46:57Z) - Complex Network for Complex Problems: A comparative study of CNN and
Complex-valued CNN [0.0]
複素値畳み込みニューラルネットワーク(CV-CNN)は、複素値入力データの代数構造を保存することができる。
CV-CNNは、トレーニング可能なパラメータの実際の数の観点から、実数値CNNの2倍のトレーニング可能なパラメータを持つ。
本稿では,CNN,CNNx2(CNNの2倍のトレーニングパラメータを持つCNN),CV-CNNの比較検討を行った。
論文 参考訳(メタデータ) (2023-02-09T11:51:46Z) - Impact of PolSAR pre-processing and balancing methods on complex-valued
neural networks segmentation tasks [9.6556424340252]
複素値ニューラルネットワーク(CVNN)を用いたポラリメトリック合成開口レーダ(PolSAR)のセマンティックセグメンテーションについて検討する。
6つのモデルアーキテクチャ,3つの複素値,それぞれの実等価モデルについて,両手法を徹底的に比較する。
本稿では、このギャップを減らし、全ての入力表現、モデル、データセット前処理の結果を実行するための2つの方法を提案する。
論文 参考訳(メタデータ) (2022-10-28T12:49:43Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Integrating Random Effects in Deep Neural Networks [4.860671253873579]
深層ニューラルネットワークにおける相関データを扱うために混合モデルフレームワークを提案する。
相関構造に基づく効果をランダムな効果として扱うことにより、混合モデルは過度に適合したパラメータ推定を避けることができる。
LMMNNと呼ばれる我々のアプローチは、様々な相関シナリオにおいて、自然競合よりも性能を向上させることが実証されている。
論文 参考訳(メタデータ) (2022-06-07T14:02:24Z) - coVariance Neural Networks [119.45320143101381]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ内の相互関係を利用して学習する効果的なフレームワークである。
我々は、サンプル共分散行列をグラフとして扱う、共分散ニューラルネットワーク(VNN)と呼ばれるGNNアーキテクチャを提案する。
VNN の性能は PCA ベースの統計手法よりも安定していることを示す。
論文 参考訳(メタデータ) (2022-05-31T15:04:43Z) - An Analysis of Complex-Valued CNNs for RF Data-Driven Wireless Device
Classification [12.810432378755904]
最近のディープニューラルネットワークに基づくデバイス分類研究は、複素数値ニューラルネットワーク(CVNN)が実数値ニューラルネットワーク(RVNN)よりも高い分類精度が得られることを示している。
本研究は、実際のLoRaおよびWiFi RFデータセットを用いて、この傾向についてより深く理解する。
論文 参考訳(メタデータ) (2022-02-20T10:35:20Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。