論文の概要: Machine Learning Lie Structures & Applications to Physics
- arxiv url: http://arxiv.org/abs/2011.00871v2
- Date: Tue, 20 Apr 2021 18:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 11:38:01.373945
- Title: Machine Learning Lie Structures & Applications to Physics
- Title(参考訳): 機械学習のリー構造と物理への応用
- Authors: Heng-Yu Chen, Yang-Hui He, Shailesh Lal, Suvajit Majumder
- Abstract要約: テンソル積の計算と既約表現の分岐規則がいかに機械学習可能かを示す。
我々は,非MLアルゴリズムと比較して,桁違いの相対的な高速化を実現することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical and exceptional Lie algebras and their representations are among
the most important tools in the analysis of symmetry in physical systems. In
this letter we show how the computation of tensor products and branching rules
of irreducible representations are machine-learnable, and can achieve relative
speed-ups of orders of magnitude in comparison to the non-ML algorithms.
- Abstract(参考訳): 古典的および例外的なリー代数とその表現は、物理系における対称性の分析において最も重要なツールである。
このレターでは、テンソル積の計算と既約表現の分岐規則が機械学習可能であることを示し、非MLアルゴリズムと比較して相対的な桁数の高速化を実現する。
関連論文リスト
- Understanding Generalization in Physics Informed Models through Affine Variety Dimensions [35.17568416175663]
微分方程式構造を取り入れた線形回帰器の一般化性能はアフィン多様体の次元によって決定されることを示す。
この発見は、非線形方程式を含む様々な方程式の統一的な解析を可能にする。
論文 参考訳(メタデータ) (2025-01-31T04:25:22Z) - A Diagrammatic Approach to Improve Computational Efficiency in Group Equivariant Neural Networks [1.9643748953805935]
群同変ニューラルネットワークは、データが基礎となる対称性を知っているアプリケーションでよく一般化する能力のために、重要性が増している。
近年,高次テンソルパワー空間を層として用いたネットワークのクラスの特徴化は,それらに有意なポテンシャルがあることを示唆している。
これらのネットワーク内のテンソルパワー層間を4つのグループでマッピングする任意の同変重み行列に対する高速行列乗算アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-14T14:08:06Z) - Electronic excited states from physically-constrained machine learning [0.0]
本稿では,実効ハミルトニアンの対称性適応MLモデルをトレーニングし,量子力学計算から電子励起を再現する統合モデリング手法を提案する。
結果として得られるモデルは、トレーニングされた分子よりもずっと大きく、より複雑な分子を予測できる。
論文 参考訳(メタデータ) (2023-11-01T20:49:59Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - FAENet: Frame Averaging Equivariant GNN for Materials Modeling [123.19473575281357]
データ変換による任意のモデルE(3)-同変や不変化を実現するために,フレームアラグリング(SFA)に依存したフレキシブルなフレームワークを導入する。
本手法の有効性を理論的および実験的に証明し, 材料モデリングにおける精度と計算スケーラビリティを実証する。
論文 参考訳(メタデータ) (2023-04-28T21:48:31Z) - Representation Theory for Geometric Quantum Machine Learning [0.0]
古典的機械学習の最近の進歩は、問題の対称性を符号化する帰納的バイアスを持つモデルを作成することにより、性能が大幅に向上することを示している。
幾何学量子機械学習(GQML)は、問題固有の量子認識モデルの開発において重要な役割を果たす。
本稿では、離散的および連続的なグループを含む主要な例によって駆動される量子学習の光学から表現論ツールを紹介する。
論文 参考訳(メタデータ) (2022-10-14T17:25:36Z) - Symmetry Group Equivariant Architectures for Physics [52.784926970374556]
機械学習の分野では、対称性に対する認識が目覚ましいパフォーマンスのブレークスルーを引き起こしている。
物理学のコミュニティと、より広い機械学習のコミュニティの両方に、理解すべきことがたくさんある、と私たちは主張する。
論文 参考訳(メタデータ) (2022-03-11T18:27:04Z) - Optimal radial basis for density-based atomic representations [58.720142291102135]
データセットの構造的多様性を最も効率的に表現するために選択される適応的で最適な数値ベースを構築する方法について議論します。
トレーニングデータセットごとに、この最適なベースはユニークで、プリミティブベースに関して追加のコストなしで計算することができる。
この構成が精度と計算効率のよい表現をもたらすことを実証する。
論文 参考訳(メタデータ) (2021-05-18T17:57:08Z) - Quantum Algorithms for Data Representation and Analysis [68.754953879193]
機械学習におけるデータ表現のための固有problemsの解を高速化する量子手続きを提供する。
これらのサブルーチンのパワーと実用性は、主成分分析、対応解析、潜在意味解析のための入力行列の大きさのサブ線形量子アルゴリズムによって示される。
その結果、入力のサイズに依存しない実行時のパラメータは妥当であり、計算モデル上の誤差が小さいことが示され、競合的な分類性能が得られる。
論文 参考訳(メタデータ) (2021-04-19T00:41:43Z) - Sparse Quantized Spectral Clustering [85.77233010209368]
このような非線形変換の下で行列の固有スペクトルがどのように変化するのかを、ランダム行列理論のツールを用いて正確に述べる。
急激なスペーシング/量子化の下でも,情報的固有構造にはほとんど変化は見られなかった。
論文 参考訳(メタデータ) (2020-10-03T15:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。