論文の概要: Complex Network for Complex Problems: A comparative study of CNN and
Complex-valued CNN
- arxiv url: http://arxiv.org/abs/2302.04584v1
- Date: Thu, 9 Feb 2023 11:51:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 16:03:20.041271
- Title: Complex Network for Complex Problems: A comparative study of CNN and
Complex-valued CNN
- Title(参考訳): 複雑問題のための複雑ネットワーク:CNNと複素数値CNNの比較研究
- Authors: Soumick Chatterjee, Pavan Tummala, Oliver Speck and Andreas
N\"urnberger
- Abstract要約: 複素値畳み込みニューラルネットワーク(CV-CNN)は、複素値入力データの代数構造を保存することができる。
CV-CNNは、トレーニング可能なパラメータの実際の数の観点から、実数値CNNの2倍のトレーニング可能なパラメータを持つ。
本稿では,CNN,CNNx2(CNNの2倍のトレーニングパラメータを持つCNN),CV-CNNの比較検討を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks, especially convolutional neural networks (CNN), are one of
the most common tools these days used in computer vision. Most of these
networks work with real-valued data using real-valued features. Complex-valued
convolutional neural networks (CV-CNN) can preserve the algebraic structure of
complex-valued input data and have the potential to learn more complex
relationships between the input and the ground-truth. Although some comparisons
of CNNs and CV-CNNs for different tasks have been performed in the past, a
large-scale investigation comparing different models operating on different
tasks has not been conducted. Furthermore, because complex features contain
both real and imaginary components, CV-CNNs have double the number of trainable
parameters as real-valued CNNs in terms of the actual number of trainable
parameters. Whether or not the improvements in performance with CV-CNN observed
in the past have been because of the complex features or just because of having
double the number of trainable parameters has not yet been explored. This paper
presents a comparative study of CNN, CNNx2 (CNN with double the number of
trainable parameters as the CNN), and CV-CNN. The experiments were performed
using seven models for two different tasks - brain tumour classification and
segmentation in brain MRIs. The results have revealed that the CV-CNN models
outperformed the CNN and CNNx2 models.
- Abstract(参考訳): ニューラルネットワーク、特に畳み込みニューラルネットワーク(CNN)は、近年コンピュータビジョンで使われている最も一般的なツールの1つである。
これらのネットワークのほとんどは、実数値機能を使って実数値データを扱う。
複素値畳み込みニューラルネットワーク(cv-cnn)は、複素値入力データの代数構造を保存でき、入力と基底とのより複雑な関係を学習することができる。
異なるタスクに対するCNNとCV-CNNの比較は過去にも行われてきたが、異なるタスクで動作する異なるモデルを比較する大規模な調査は行われていない。
さらに、複雑な特徴は実数成分と虚数成分の両方を含んでいるため、CV-CNNは実数値CNNの2倍のトレーニング可能なパラメータを持つ。
これまでCV-CNNの性能改善は、複雑な特徴のためなのか、それとも単に2倍のトレーニング可能なパラメータの数がまだ検討されていないからなのか。
本稿では,CNN,CNNx2(CNNの2倍のトレーニングパラメータを持つCNN),CV-CNNの比較検討を行った。
実験は脳mriにおける脳腫瘍の分類とセグメンテーションの2つの異なる課題に対して7つのモデルを用いて行った。
その結果,CV-CNNモデルはCNNおよびCNNx2モデルよりも優れていた。
関連論文リスト
- Model Parallel Training and Transfer Learning for Convolutional Neural Networks by Domain Decomposition [0.0]
ディープ畳み込みニューラルネットワーク(CNN)は、幅広い画像処理アプリケーションで非常に成功したことが示されている。
モデルパラメータの増大と大量のトレーニングデータの増加により、複雑なCNNを効率的に訓練するための並列化戦略が必要である。
論文 参考訳(メタデータ) (2024-08-26T17:35:01Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - UniHENN: Designing Faster and More Versatile Homomorphic Encryption-based CNNs without im2col [6.496463706588549]
ホモモルフィック暗号化(HE)は、復号化せずに暗号化データの計算を可能にすることによって、プライバシー保護の深層学習を可能にする。
HEで畳み込みニューラルネットワーク(CNN)をデプロイするのは、im2col技術を用いて、入力データを畳み込みのための2次元行列に変換する必要があるため、難しい。
UniHENNは、新しいHEベースのCNNアーキテクチャで、im2colの必要性を排除し、その汎用性と幅広いCNNモデルとの互換性を高める。
論文 参考訳(メタデータ) (2024-02-05T14:52:01Z) - RIC-CNN: Rotation-Invariant Coordinate Convolutional Neural Network [56.42518353373004]
回転不変座標変換(RIC-C)と呼ばれる新しい畳み込み演算を提案する。
CNNの標準畳み込み層を対応するRCC-Cに置き換えることで、RCC-CNNを導出することができる。
RIC-CNNはMNISTの回転試験データセット上で最先端の分類を実現することが観察できる。
論文 参考訳(メタデータ) (2022-11-21T19:27:02Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - Exploiting Hybrid Models of Tensor-Train Networks for Spoken Command
Recognition [9.262289183808035]
本研究の目的は,低複雑性音声コマンド認識(SCR)システムの設計である。
我々は、テンソルトレイン(TT)ネットワークの深いハイブリッドアーキテクチャを利用して、エンドツーエンドのSRCパイプラインを構築する。
提案したCNN+(TT-DNN)モデルでは,CNNモデルより4倍少ないモデルパラメータで96.31%の競争精度が得られる。
論文 参考訳(メタデータ) (2022-01-11T05:57:38Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - An Alternative Practice of Tropical Convolution to Traditional
Convolutional Neural Networks [0.5837881923712392]
トロピカル畳み込みニューラルネットワーク (TCNNs) と呼ばれる新しいタイプのCNNを提案する。
TCNNは、従来の畳み込み層における乗算と加算をそれぞれ加算とmin/max演算に置き換える熱帯畳み込みの上に構築されている。
我々は,MNIST と CIFAR10 の画像データセットにおいて,通常の畳み込み層よりも表現力が高いことを示す。
論文 参考訳(メタデータ) (2021-03-03T00:13:30Z) - Complex-Valued vs. Real-Valued Neural Networks for Classification
Perspectives: An Example on Non-Circular Data [10.06162739966462]
複素数値データセットの分類タスクに対する複素値ニューラルネットワーク(CVNN)の潜在的関心を示す。
CVNN精度は実値ニューラルネットワーク(RVNN)よりも統計的に高い平均と中央値のばらつきと低いばらつきを示す
論文 参考訳(メタデータ) (2020-09-17T14:39:35Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。