論文の概要: The Hyperdimensional Transform for Distributional Modelling, Regression
and Classification
- arxiv url: http://arxiv.org/abs/2311.08150v1
- Date: Tue, 14 Nov 2023 13:26:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 13:59:53.982440
- Title: The Hyperdimensional Transform for Distributional Modelling, Regression
and Classification
- Title(参考訳): 分布モデル, 回帰, 分類のための超次元変換
- Authors: Pieter Dewulf, Bernard De Baets, Michiel Stock
- Abstract要約: 我々は、超次元変換のパワーを、幅広いデータサイエンスのオーディエンスに提示する。
既存のアルゴリズムがどのように修正され、この変換がいかにして、新しくよく構築されたツールボックスにつながるかを示す。
- 参考スコア(独自算出の注目度): 12.693238093510072
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hyperdimensional computing (HDC) is an increasingly popular computing
paradigm with immense potential for future intelligent applications. Although
the main ideas already took form in the 1990s, HDC recently gained significant
attention, especially in the field of machine learning and data science. Next
to efficiency, interoperability and explainability, HDC offers attractive
properties for generalization as it can be seen as an attempt to combine
connectionist ideas from neural networks with symbolic aspects. In recent work,
we introduced the hyperdimensional transform, revealing deep theoretical
foundations for representing functions and distributions as high-dimensional
holographic vectors. Here, we present the power of the hyperdimensional
transform to a broad data science audience. We use the hyperdimensional
transform as a theoretical basis and provide insight into state-of-the-art HDC
approaches for machine learning. We show how existing algorithms can be
modified and how this transform can lead to a novel, well-founded toolbox. Next
to the standard regression and classification tasks of machine learning, our
discussion includes various aspects of statistical modelling, such as
representation, learning and deconvolving distributions, sampling, Bayesian
inference, and uncertainty estimation.
- Abstract(参考訳): 超次元コンピューティング(Hyperdimensional Computing、HDC)は、未来のインテリジェントなアプリケーションにとって大きな可能性を秘めているコンピューティングパラダイムである。
1990年代にはすでに主要なアイデアが成立していたが、最近HDCは特に機械学習とデータサイエンスの分野で大きな注目を集めた。
効率性、相互運用性、説明可能性に加えて、HDCは、ニューラルネットワークからのコネクショナリストのアイデアと象徴的な側面を組み合わせる試みとして、一般化のための魅力的な特性を提供する。
近年,関数と分布を高次元ホログラフィックベクトルとして表すための深い理論的基礎を明らかにする超次元変換を導入した。
ここでは,超次元変換のパワーを幅広いデータサイエンスの聴衆に提示する。
超次元変換を理論的基礎として、機械学習の最先端のhdcアプローチへの洞察を提供する。
既存のアルゴリズムをどのように修正できるか、そしてこの変換がいかにして新しく確立されたツールボックスにつながるかを示す。
機械学習の標準回帰と分類タスクの次に,表現,学習,デコンボラブル分布,サンプリング,ベイズ推定,不確実性推定など,統計モデリングのさまざまな側面を考察した。
関連論文リスト
- Deep Generative Modeling Reshapes Compression and Transmission: From Efficiency to Resiliency [12.129722150469968]
本稿では,データ圧縮を効率よく,伝送エラーを回復力に隠蔽する深層生成モデルの二重機能性を示す。
我々は,多くの大規模生成モデルのカーネルが,意味的潜伏変数間の複雑な関係を捉える強力な予測器であることを示す。
論文 参考訳(メタデータ) (2024-06-10T16:36:02Z) - Constrained Neural Networks for Interpretable Heuristic Creation to Optimise Computer Algebra Systems [2.8402080392117757]
本稿では,記号計算研究における機械学習技術を活用した新しい手法を提案する。
筒状分解におけるよく知られた人間設計変数の順序付けが、ニューラルネットワークの制約としてどのように表現されるかを説明する。
これにより、マシンラーニングメソッドを使用してさらなる最適化が可能になり、もともとの人間設計のものと同じようなサイズの新しいネットワークが生まれる。
論文 参考訳(メタデータ) (2024-04-26T16:20:04Z) - Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Modeling Item Response Theory with Stochastic Variational Inference [8.369065078321215]
項目応答理論(IRT)のための変分ベイズ推論アルゴリズムを提案する。
この手法を5つの大規模項目応答データセットに適用すると、欠落したデータを出力する際の高いログ可能性と高い精度が得られる。
アルゴリズムの実装はオープンソースであり、簡単に利用できる。
論文 参考訳(メタデータ) (2021-08-26T05:00:27Z) - Tensor Methods in Computer Vision and Deep Learning [120.3881619902096]
テンソル(tensor)は、複数の次元の視覚データを自然に表現できるデータ構造である。
コンピュータビジョンにおけるディープラーニングパラダイムシフトの出現により、テンソルはさらに基本的なものになっている。
本稿では,表現学習と深層学習の文脈において,テンソルとテンソル法を深く,実践的に検討する。
論文 参考訳(メタデータ) (2021-07-07T18:42:45Z) - A Theoretical Perspective on Hyperdimensional Computing [17.50442191930551]
超次元(HD)コンピューティングは、高次元、低精度、分散されたデータの表現を得るために、ニューラルネットワークにインスパイアされた一連の手法である。
HDコンピューティングは最近、学習問題を解決するためのエネルギー効率、低レイテンシ、ノイズローバストツールとして、コンピュータハードウェアコミュニティから大きな関心を集めている。
論文 参考訳(メタデータ) (2020-10-14T22:39:11Z) - A New Perspective on Learning Context-Specific Independence [18.273290530700567]
文脈依存独立(CSI)のような局所構造は確率的グラフィカルモデル(PGM)の文献で注目されている。
本稿では,データからCSIを学習する方法について,新たな視点を提供する。
論文 参考訳(メタデータ) (2020-06-12T01:11:02Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。