論文の概要: A General Framework for Hypercomplex-valued Extreme Learning Machines
- arxiv url: http://arxiv.org/abs/2101.06166v1
- Date: Fri, 15 Jan 2021 15:22:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 11:17:52.223508
- Title: A General Framework for Hypercomplex-valued Extreme Learning Machines
- Title(参考訳): 超複素値極限学習マシンの汎用フレームワーク
- Authors: Guilherme Vieira and Marcos Eduardo Valle
- Abstract要約: 本稿では,汎用超複素代数上での極端学習機械(ELM)の枠組みを確立することを目的とする。
実数値線形代数演算によりこれらの代数を演算する枠組みを示す。
実験は、高次元データを扱うための超複素値elmの優れた性能を強調する。
- 参考スコア(独自算出の注目度): 2.055949720959582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to establish a framework for extreme learning machines (ELMs)
on general hypercomplex algebras. Hypercomplex neural networks are machine
learning models that feature higher-dimension numbers as parameters, inputs,
and outputs. Firstly, we review broad hypercomplex algebras and show a
framework to operate in these algebras through real-valued linear algebra
operations in a robust manner. We proceed to explore a handful of well-known
four-dimensional examples. Then, we propose the hypercomplex-valued ELMs and
derive their learning using a hypercomplex-valued least-squares problem.
Finally, we compare real and hypercomplex-valued ELM models' performance in an
experiment on time-series prediction and another on color image auto-encoding.
The computational experiments highlight the excellent performance of
hypercomplex-valued ELMs to treat high-dimensional data, including models based
on unusual hypercomplex algebras.
- Abstract(参考訳): 本稿では,汎用超複素代数上での極端学習機械(ELM)の枠組みを確立することを目的とする。
ハイパーコンプレックスニューラルネットワーク(hypercomplex neural network)は、パラメータ、入力、出力として高次元数を特徴とする機械学習モデルである。
まず、広範超複素代数を概観し、実数値線形代数演算を頑健に行う枠組みを示す。
我々は、よく知られた4次元の例をいくつか探求する。
次に,超複素数値EMMを提案し,超複素数値最小二乗問題を用いてそれらの学習を導出する。
最後に,時系列予測実験とカラー画像の自動エンコーディング実験において,実数と超複素値のelmモデルの性能を比較した。
計算実験では、異常な超複素代数に基づくモデルを含む高次元データを扱うための超複素数値EMMの優れた性能を強調した。
関連論文リスト
- SC-MAD: Mixtures of Higher-order Networks for Data Augmentation [36.33265644447091]
単純複体は、グラフニューラルネットワーク(GNN)の単純複体モデルへの一般化にインスピレーションを与えた。
本稿では, 線形および非線形混合機構による単純錯体のデータ増大について述べる。
理論的には、合成単純錯体は、同型密度に関して、既存のデータ間で相互に相互作用することを示した。
論文 参考訳(メタデータ) (2023-09-14T06:25:39Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - Sample Complexity of Kernel-Based Q-Learning [11.32718794195643]
任意に大規模に割引されたMDPにおいて,$epsilon$-optimal Policyを求める非パラメトリックQ-ラーニングアルゴリズムを提案する。
我々の知る限りでは、このような一般モデルの下では、有限サンプルの複雑さを示す最初の結果である。
論文 参考訳(メタデータ) (2023-02-01T19:46:25Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - An Extension to Basis-Hypervectors for Learning from Circular Data in
Hyperdimensional Computing [62.997667081978825]
超次元計算(Hyperdimensional Computing、HDC)は、高次元ランダム空間の性質に基づく計算フレームワークである。
本稿では, 基本超ベクトル集合について検討し, 一般にHDCへの実践的貢献につながっている。
本稿では,HDCを用いた機械学習において,これまでに扱ったことのない重要な情報である円形データから学習する手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T18:04:55Z) - HyperNP: Interactive Visual Exploration of Multidimensional Projection
Hyperparameters [61.354362652006834]
HyperNPは、ニューラルネットワーク近似をトレーニングすることで、プロジェクションメソッドをリアルタイムにインタラクティブに探索できるスケーラブルな方法である。
我々は3つのデータセット間でのHyperNPの性能を,性能と速度の観点から評価した。
論文 参考訳(メタデータ) (2021-06-25T17:28:14Z) - Parameterized Hypercomplex Graph Neural Networks for Graph
Classification [1.1852406625172216]
我々は超複雑特徴変換の特性を利用するグラフニューラルネットワークを開発した。
特に、提案したモデルのクラスでは、代数自身を特定する乗法則は、トレーニング中にデータから推測される。
提案するハイパーコンプレックスgnnをいくつかのオープングラフベンチマークデータセット上でテストし,そのモデルが最先端の性能に達することを示す。
論文 参考訳(メタデータ) (2021-03-30T18:01:06Z) - Beyond Fully-Connected Layers with Quaternions: Parameterization of
Hypercomplex Multiplications with $1/n$ Parameters [71.09633069060342]
モデルが事前に定義されているかどうかにかかわらず、データから乗算ルールを学習できるように、ハイパーコンプレックス乗算のパラメータ化を提案する。
我々の手法はハミルトン積を仮定するだけでなく、任意の nD 超複素空間上での操作も学んでいる。
論文 参考訳(メタデータ) (2021-02-17T06:16:58Z) - A Nature-Inspired Feature Selection Approach based on Hypercomplex
Information [4.733222697135021]
超複合機能選択にメタヒューリスティック最適化フレームワークを導入する。
目的とする超複素特徴選択は、いくつかのメタヒューリスティックアルゴリズムと超複素表現に対してテストされる。
提案手法によって得られた良い結果は,特徴選択研究において有望なツールとなる。
論文 参考訳(メタデータ) (2021-01-14T15:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。