論文の概要: Machine Learning Clifford invariants of ADE Coxeter elements
- arxiv url: http://arxiv.org/abs/2310.00041v1
- Date: Fri, 29 Sep 2023 18:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 07:03:40.777873
- Title: Machine Learning Clifford invariants of ADE Coxeter elements
- Title(参考訳): ADE Coxeter要素の機械学習クリフォード不変量
- Authors: Siqi Chen, Pierre-Philippe Dechant, Yang-Hui He, Elli Heyes, Edward
Hirst, Dmitrii Riabchenko
- Abstract要約: A_8$,$D_8$,$E_8$のすべてのコクセター変換を単純根の基底の選択に対して徹底的に計算する。
この計算代数学のパラダイムはデータセットを生成し、データサイエンスの技法を用いて掘り下げることができる。
本論文はクリフォード代数を用いた実験数学におけるポンププライミングの研究である。
- 参考スコア(独自算出の注目度): 2.1478290141596585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been recent interest in novel Clifford geometric invariants of
linear transformations. This motivates the investigation of such invariants for
a certain type of geometric transformation of interest in the context of root
systems, reflection groups, Lie groups and Lie algebras: the Coxeter
transformations. We perform exhaustive calculations of all Coxeter
transformations for $A_8$, $D_8$ and $E_8$ for a choice of basis of simple
roots and compute their invariants, using high-performance computing. This
computational algebra paradigm generates a dataset that can then be mined using
techniques from data science such as supervised and unsupervised machine
learning. In this paper we focus on neural network classification and principal
component analysis. Since the output -- the invariants -- is fully determined
by the choice of simple roots and the permutation order of the corresponding
reflections in the Coxeter element, we expect huge degeneracy in the mapping.
This provides the perfect setup for machine learning, and indeed we see that
the datasets can be machine learned to very high accuracy. This paper is a
pump-priming study in experimental mathematics using Clifford algebras, showing
that such Clifford algebraic datasets are amenable to machine learning, and
shedding light on relationships between these novel and other well-known
geometric invariants and also giving rise to analytic results.
- Abstract(参考訳): 近年、線型変換の新しいクリフォード幾何学的不変量への関心が高まっている。
これは、ルート系、反射群、リー群およびリー代数の文脈における興味の幾何変換のある種のある種の幾何学的変換に対するそのような不変量の研究を動機付ける:コクセター変換。
A_8$,$D_8$,$E_8$のすべてのコクセター変換に対して,単純な根の基底の選択に対して全演算を行い,その不変量を高速計算を用いて計算する。
この計算代数学のパラダイムは、教師なし機械学習や教師なし機械学習のようなデータサイエンスのテクニックを使ってマイニングできるデータセットを生成する。
本稿ではニューラルネットワークの分類と主成分分析に焦点をあてる。
出力 -- 不変量 -- は単純根の選択とコクセター要素の対応する反射の置換順序によって完全に決定されるので、写像において大きな退化を期待する。
これは機械学習に最適なセットアップを提供しており、実際にデータセットを非常に高い精度で機械学習することができる。
本論文は、クリフォード代数を用いた実験数学におけるポンププライミング研究であり、これらのクリフォード代数データセットが機械学習に適応可能であることを示し、これらの新奇な幾何学的不変量と他のよく知られた幾何学的不変量との関係を明らかにした。
関連論文リスト
- Machines and Mathematical Mutations: Using GNNs to Characterize Quiver Mutation Classes [4.229995708813431]
我々は、グラフニューラルネットワークとAI説明可能性技術を用いて、$tildeD_n$のクイバーの突然変異同値基準を発見する。
また、我々のモデルは、既知の基準を$D_n$から再構築できるように、その隠された表現内で構造をキャプチャすることを示した。
論文 参考訳(メタデータ) (2024-11-12T01:09:41Z) - Learning Linear Attention in Polynomial Time [115.68795790532289]
線形注意を持つ単層変圧器の学習性に関する最初の結果を提供する。
線形アテンションは RKHS で適切に定義された線形予測器とみなすことができる。
我々は,すべての経験的リスクが線形変換器と同等のトレーニングデータセットを効率的に識別する方法を示す。
論文 参考訳(メタデータ) (2024-10-14T02:41:01Z) - Metric Learning for Clifford Group Equivariant Neural Networks [15.551447911164903]
クリフォード群同変ニューラルネットワーク(Clifford Group Equivariant Neural Networks, CGENNs)は、クリフォード代数と多ベクトルを利用して、ニューラル表現における対称性の制約を保証する。
これまでの研究では、内部ネットワークの表現をユークリッドやミンコフスキー(擬似計量)に制限していた。
我々は、CGENNネットワークがより柔軟な表現を学べるように、データ駆動方式でメトリックを学習できる別の方法を提案する。
論文 参考訳(メタデータ) (2024-07-13T15:41:14Z) - Optimal Matrix-Mimetic Tensor Algebras via Variable Projection [0.0]
行列緩和性(Matrix mimeticity)は、テンソルを、行列に類似した乗算、分解、解析が可能な作用素として解釈することから生じる。
我々は、データの事前の知識に頼ることなく、最適線形写像と対応するテンソル表現を学習する。
可変射影型アルゴリズムの変換と収束解析の独創性理論を提供する。
論文 参考訳(メタデータ) (2024-06-11T04:52:23Z) - Learning equivariant tensor functions with applications to sparse vector recovery [5.557442038265024]
ローレンツ群とシンプレクティック群の対角作用に関して同変函数に着目する。
これらの特徴付けの背景にある私たちのゴールは、同変機械学習モデルを定義することです。
論文 参考訳(メタデータ) (2024-06-03T17:32:43Z) - Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z) - Clifford Neural Layers for PDE Modeling [61.07764203014727]
偏微分方程式 (Partial differential equation, PDE) は、物理過程のシミュレーションを、時間とともに相互作用し、共進化するスカラー場やベクトル場として記述するために、科学や工学で広く用いられる。
現在のメソッドは、しばしば相関する異なるフィールドと内部コンポーネントの関係を明示的に考慮していない。
本稿では, Clifford convolutions や Clifford Fourier transforms とともに, 深層学習におけるマルチベクトル表現の活用について述べる。
結果として生じるクリフォード神経層は普遍的に適用可能であり、流体力学、天気予報、一般の物理系のモデリングで直接使用される。
論文 参考訳(メタデータ) (2022-09-08T17:35:30Z) - Cluster Algebras: Network Science and Machine Learning [0.0]
クラスター代数は近年、数学や物理学において重要なプレーヤーとなっている。
我々は、現代のデータサイエンスのレンズを通して、特にネットワークサイエンスと機械学習の技術を用いてそれらを調査する。
論文 参考訳(メタデータ) (2022-03-25T18:25:37Z) - GENEOnet: A new machine learning paradigm based on Group Equivariant
Non-Expansive Operators. An application to protein pocket detection [97.5153823429076]
グループ同変非拡張演算子に基づく新しい計算パラダイムを導入する。
我々は、薬物設計における重要な問題として、ホスト可能なタンパク質の表面のポケットを検出する、GENEOnetと呼ばれる方法を試した。
論文 参考訳(メタデータ) (2022-01-31T11:14:51Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。