論文の概要: Learning Characteristics of Reverse Quaternion Neural Network
- arxiv url: http://arxiv.org/abs/2411.05816v1
- Date: Fri, 01 Nov 2024 13:28:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-17 08:33:30.399693
- Title: Learning Characteristics of Reverse Quaternion Neural Network
- Title(参考訳): 逆四元系ニューラルネットワークの学習特性
- Authors: Shogo Yamauchi, Tohru Nitta, Takaaki Ohnishi,
- Abstract要約: 本稿では,新しい多層フィードフォワード四元系ニューラルネットワークアーキテクチャ,リバース四元系ニューラルネットワークを提案する。
Reverse Quaternion Neural Networkは、既存のモデルに匹敵する学習速度を持ち、既存のモデルとは異なる回転表現を得ることができる。
- 参考スコア(独自算出の注目度): 0.3686808512438362
- License:
- Abstract: The purpose of this paper is to propose a new multi-layer feedforward quaternion neural network model architecture, Reverse Quaternion Neural Network which utilizes the non-commutative nature of quaternion products, and to clarify its learning characteristics. While quaternion neural networks have been used in various fields, there has been no research report on the characteristics of multi-layer feedforward quaternion neural networks where weights are applied in the reverse direction. This paper investigates the learning characteristics of the Reverse Quaternion Neural Network from two perspectives: the learning speed and the generalization on rotation. As a result, it is found that the Reverse Quaternion Neural Network has a learning speed comparable to existing models and can obtain a different rotation representation from the existing models.
- Abstract(参考訳): 本研究の目的は,四元数生成物の非可換性を利用した多層フィードフォワード四元数ニューラルネットワークアーキテクチャ,リバース四元数ニューラルネットワークを提案し,その学習特性を明らかにすることである。
四元系ニューラルネットワークは様々な分野で用いられているが、逆方向に重みが適用される多層フィードフォワード四元系ニューラルネットワークの特性についての研究報告はない。
本稿では,逆四元系ニューラルネットワークの学習特性について,学習速度と回転の一般化の2点から検討する。
その結果、Reverse Quaternion Neural Networkは既存のモデルに匹敵する学習速度を持ち、既存のモデルとは異なる回転表現を得ることができることがわかった。
関連論文リスト
- The sampling complexity of learning invertible residual neural networks [9.614718680817269]
フィードフォワードReLUニューラルネットワークをポイントサンプルから高い均一な精度で決定することは、次元性の呪いに苦しむことが示されている。
我々は、特定のニューラルネットワークアーキテクチャを制限することでサンプリングの複雑さを改善することができるかどうかを考察する。
我々の主な結果は、残差ニューラルネットワークアーキテクチャと可逆性は、より単純なフィードフォワードアーキテクチャで遭遇する複雑性障壁を克服する助けにならないことを示している。
論文 参考訳(メタデータ) (2024-11-08T10:00:40Z) - Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Multiobjective Evolutionary Pruning of Deep Neural Networks with
Transfer Learning for improving their Performance and Robustness [15.29595828816055]
本研究は,多目的進化解析アルゴリズムMO-EvoPruneDeepTLを提案する。
我々は、トランスファーラーニングを使用して、遺伝的アルゴリズムによって進化したスパース層に置き換えることで、ディープニューラルネットワークの最後の層を適応します。
実験の結果,提案手法は全ての目的に対して有望な結果が得られ,直接的な関係が示された。
論文 参考訳(メタデータ) (2023-02-20T19:33:38Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Quaternion-Valued Convolutional Neural Network Applied for Acute
Lymphoblastic Leukemia Diagnosis [1.4174475093445233]
本稿では,医療用パターン認識タスクのための四元数評価畳み込みニューラルネットワークの応用について検討する。
より正確には、末梢血スミア顕微鏡画像からリンパ芽細胞を分類するために、実測値と四重項値の畳み込みニューラルネットワークの性能を比較した。
4値の畳み込みニューラルネットワークは、対応する実値のネットワークよりも、あるいは類似した性能を達成したが、パラメータの34%しか使用しなかった。
論文 参考訳(メタデータ) (2021-12-13T14:03:09Z) - Deep Randomized Neural Networks [12.333836441649343]
ランダム化されたニューラルネットワークは、ほとんどの接続が固定されたニューラルネットワークの挙動を探索する。
本章はランダム化ニューラルネットワークの設計と解析に関する主要な側面をすべて調査する。
論文 参考訳(メタデータ) (2020-02-27T17:57:58Z) - Quaternion-Valued Recurrent Projection Neural Networks on Unit
Quaternions [1.3706331473063877]
四元数値リカレントプロジェクションニューラルネット(QRPNN)について述べる。
QRPNNは、非局所射影学習と四元数値反復相関ニューラルネットワーク(QRCNN)を組み合わせることで得られる。
論文 参考訳(メタデータ) (2020-01-30T11:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。