論文の概要: Quaternion Convolutional Neural Networks: Current Advances and Future
Directions
- arxiv url: http://arxiv.org/abs/2307.08663v1
- Date: Mon, 17 Jul 2023 17:27:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 11:56:26.883191
- Title: Quaternion Convolutional Neural Networks: Current Advances and Future
Directions
- Title(参考訳): 第四次畳み込みニューラルネットワークの現状と今後の方向性
- Authors: Gerardo Altamirano-Gomez and Carlos Gershenson
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、いくつかの領域で最先端の問題を解く。
本論文は,QCNNの開始当初からの研究を凝縮させるものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Since their first applications, Convolutional Neural Networks (CNNs) have
solved problems that have advanced the state-of-the-art in several domains.
CNNs represent information using real numbers. Despite encouraging results,
theoretical analysis shows that representations such as hyper-complex numbers
can achieve richer representational capacities than real numbers, and that
Hamilton products can capture intrinsic interchannel relationships. Moreover,
in the last few years, experimental research has shown that Quaternion-Valued
CNNs (QCNNs) can achieve similar performance with fewer parameters than their
real-valued counterparts. This paper condenses research in the development of
QCNNs from its very beginnings. We propose a conceptual organization of current
trends and analyze the main building blocks used in the design of QCNN models.
Based on this conceptual organization, we propose future directions of
research.
- Abstract(参考訳): 最初の応用以来、畳み込みニューラルネットワーク(CNN)はいくつかの領域で最先端の課題を解決してきた。
CNNは実数を用いて情報を表現する。
理論解析により、超複素数のような表現は実数よりも豊かな表現能力を得ることができ、ハミルトン積は内在的な相互関係を捉えることができる。
さらに,近年,第4次価値CNN(Quternion-Valued CNNs,QCNNs)が実値よりも少ないパラメータで同様の性能を達成できることが実験的に示されている。
本稿は,qcnnsの初期からの開発に携わる研究を凝縮する。
そこで本研究では,QCNNモデルの設計に使用されるビルディングブロックについて,現在のトレンドの概念的整理と分析を行う。
この概念体系に基づき,今後の研究の方向性を提案する。
関連論文リスト
- Physical Rule-Guided Convolutional Neural Network [0.0]
物理誘導ニューラルネットワーク(PGNN)は、科学原理と現実世界の知識を統合することで限界に対処する。
本稿では,動的,トレーニング可能,自動化されたLCM生成ルールをカスタムレイヤとして組み込んだ物理誘導型CNN(PGCNN)アーキテクチャを提案する。
PGCNNは複数のデータセットで評価され、ベースラインCNNモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-03T17:32:35Z) - From Graphs to Qubits: A Critical Review of Quantum Graph Neural Networks [56.51893966016221]
量子グラフニューラルネットワーク(QGNN)は、量子コンピューティングとグラフニューラルネットワーク(GNN)の新たな融合を表す。
本稿では,QGNNの現状を批判的にレビューし,様々なアーキテクチャを探求する。
我々は、高エネルギー物理学、分子化学、ファイナンス、地球科学など多種多様な分野にまたがる応用について論じ、量子的優位性の可能性を強調した。
論文 参考訳(メタデータ) (2024-08-12T22:53:14Z) - Correlated Optical Convolutional Neural Network with Quantum Speedup [9.194748023567886]
相関した光畳み込みニューラルネットワーク(COCNN)は、トレーニングプロセスにおいて量子スピードアップを示すことができることを示す。
提案手法は,量子スピードアップでONNを実現するための新たな道を開く。
論文 参考訳(メタデータ) (2024-02-01T11:17:09Z) - A Quantum Convolutional Neural Network Approach for Object Detection and
Classification [0.0]
QCNNの時間と精度は、異なる条件下での古典的なCNNやANNモデルと比較される。
この分析により、QCNNは、特定のアプリケーションにおける精度と効率の点で、古典的なCNNとANNのモデルより優れている可能性が示されている。
論文 参考訳(メタデータ) (2023-07-17T02:38:04Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - On Recurrent Neural Networks for learning-based control: recent results
and ideas for future developments [1.1031750359996124]
本稿では、制御設計におけるリカレントニューラルネットワーク(RNN)の可能性について論じ、分析することを目的とする。
RNNの主なファミリーは、Neural AutoRegressive eXo、NNARX、Echo State Networks (ESN)、Long Short Term Memory (LSTM)、Gated Recurrent Units (GRU)である。
論文 参考訳(メタデータ) (2021-11-26T15:52:52Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Absence of Barren Plateaus in Quantum Convolutional Neural Networks [0.0]
量子畳み込みニューラルネットワーク(QCNN)が提案されている。
我々はQCNNアーキテクチャのパラメータの勾配スケーリングを厳格に分析する。
論文 参考訳(メタデータ) (2020-11-05T16:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。