論文の概要: A General Framework for Hypercomplex-valued Extreme Learning Machines
- arxiv url: http://arxiv.org/abs/2101.06166v1
- Date: Fri, 15 Jan 2021 15:22:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 11:17:52.223508
- Title: A General Framework for Hypercomplex-valued Extreme Learning Machines
- Title(参考訳): 超複素値極限学習マシンの汎用フレームワーク
- Authors: Guilherme Vieira and Marcos Eduardo Valle
- Abstract要約: 本稿では,汎用超複素代数上での極端学習機械(ELM)の枠組みを確立することを目的とする。
実数値線形代数演算によりこれらの代数を演算する枠組みを示す。
実験は、高次元データを扱うための超複素値elmの優れた性能を強調する。
- 参考スコア(独自算出の注目度): 2.055949720959582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to establish a framework for extreme learning machines (ELMs)
on general hypercomplex algebras. Hypercomplex neural networks are machine
learning models that feature higher-dimension numbers as parameters, inputs,
and outputs. Firstly, we review broad hypercomplex algebras and show a
framework to operate in these algebras through real-valued linear algebra
operations in a robust manner. We proceed to explore a handful of well-known
four-dimensional examples. Then, we propose the hypercomplex-valued ELMs and
derive their learning using a hypercomplex-valued least-squares problem.
Finally, we compare real and hypercomplex-valued ELM models' performance in an
experiment on time-series prediction and another on color image auto-encoding.
The computational experiments highlight the excellent performance of
hypercomplex-valued ELMs to treat high-dimensional data, including models based
on unusual hypercomplex algebras.
- Abstract(参考訳): 本稿では,汎用超複素代数上での極端学習機械(ELM)の枠組みを確立することを目的とする。
ハイパーコンプレックスニューラルネットワーク(hypercomplex neural network)は、パラメータ、入力、出力として高次元数を特徴とする機械学習モデルである。
まず、広範超複素代数を概観し、実数値線形代数演算を頑健に行う枠組みを示す。
我々は、よく知られた4次元の例をいくつか探求する。
次に,超複素数値EMMを提案し,超複素数値最小二乗問題を用いてそれらの学習を導出する。
最後に,時系列予測実験とカラー画像の自動エンコーディング実験において,実数と超複素値のelmモデルの性能を比較した。
計算実験では、異常な超複素代数に基づくモデルを含む高次元データを扱うための超複素数値EMMの優れた性能を強調した。
関連論文リスト
- Learning Linear Attention in Polynomial Time [115.68795790532289]
線形注意を持つ単層変圧器の学習性に関する最初の結果を提供する。
線形アテンションは RKHS で適切に定義された線形予測器とみなすことができる。
我々は,すべての経験的リスクが線形変換器と同等のトレーニングデータセットを効率的に識別する方法を示す。
論文 参考訳(メタデータ) (2024-10-14T02:41:01Z) - Revisiting time-variant complex conjugate matrix equations with their corresponding real field time-variant large-scale linear equations, neural hypercomplex numbers space compressive approximation approach [1.1970409518725493]
時変複素共役行列方程式は対応する実時間変大線形方程式に変換する必要がある。
本稿では,複素場誤差(Con-CZND1)と実場誤差(Con-CZND2)に基づくゼロ化ニューラルダイナミクスモデルを提案する。
Con-CZND1 conjモデルの有効性を検証し,NHNSCAAの重要性を強調した。
論文 参考訳(メタデータ) (2024-08-26T07:33:45Z) - Demystifying the Hypercomplex: Inductive Biases in Hypercomplex Deep Learning [23.501824517684465]
本稿では,超複雑深層学習手法がなぜ成功し,その可能性をどのように活用できるかを理解するための枠組みを提供する。
超複素領域における特定の帰納バイアスを導出できることを示す。
これらのバイアスは、これらの領域の特徴的な性質や多次元および多モード信号の複素構造を管理するのに有効である。
論文 参考訳(メタデータ) (2024-05-11T14:41:48Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - Sample Complexity of Kernel-Based Q-Learning [11.32718794195643]
任意に大規模に割引されたMDPにおいて,$epsilon$-optimal Policyを求める非パラメトリックQ-ラーニングアルゴリズムを提案する。
我々の知る限りでは、このような一般モデルの下では、有限サンプルの複雑さを示す最初の結果である。
論文 参考訳(メタデータ) (2023-02-01T19:46:25Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - An Extension to Basis-Hypervectors for Learning from Circular Data in
Hyperdimensional Computing [62.997667081978825]
超次元計算(Hyperdimensional Computing、HDC)は、高次元ランダム空間の性質に基づく計算フレームワークである。
本稿では, 基本超ベクトル集合について検討し, 一般にHDCへの実践的貢献につながっている。
本稿では,HDCを用いた機械学習において,これまでに扱ったことのない重要な情報である円形データから学習する手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T18:04:55Z) - HyperNP: Interactive Visual Exploration of Multidimensional Projection
Hyperparameters [61.354362652006834]
HyperNPは、ニューラルネットワーク近似をトレーニングすることで、プロジェクションメソッドをリアルタイムにインタラクティブに探索できるスケーラブルな方法である。
我々は3つのデータセット間でのHyperNPの性能を,性能と速度の観点から評価した。
論文 参考訳(メタデータ) (2021-06-25T17:28:14Z) - Parameterized Hypercomplex Graph Neural Networks for Graph
Classification [1.1852406625172216]
我々は超複雑特徴変換の特性を利用するグラフニューラルネットワークを開発した。
特に、提案したモデルのクラスでは、代数自身を特定する乗法則は、トレーニング中にデータから推測される。
提案するハイパーコンプレックスgnnをいくつかのオープングラフベンチマークデータセット上でテストし,そのモデルが最先端の性能に達することを示す。
論文 参考訳(メタデータ) (2021-03-30T18:01:06Z) - Beyond Fully-Connected Layers with Quaternions: Parameterization of
Hypercomplex Multiplications with $1/n$ Parameters [71.09633069060342]
モデルが事前に定義されているかどうかにかかわらず、データから乗算ルールを学習できるように、ハイパーコンプレックス乗算のパラメータ化を提案する。
我々の手法はハミルトン積を仮定するだけでなく、任意の nD 超複素空間上での操作も学んでいる。
論文 参考訳(メタデータ) (2021-02-17T06:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。