論文の概要: Learning to be Simple
- arxiv url: http://arxiv.org/abs/2312.05299v1
- Date: Fri, 8 Dec 2023 19:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 21:31:09.084032
- Title: Learning to be Simple
- Title(参考訳): シンプルになるための学習
- Authors: Yang-Hui He, Vishnu Jejjala, Challenger Mishra, Max Sharnoff
- Abstract要約: 有限群を含む構造化された数学的データを理解するために機械学習を用いる。
有限単純群の生成元に必要な性質に関する定理を導出する。
我々の研究は、機械学習の助けを借りて数学の新しい予想と定理を生成する可能性を強調している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we employ machine learning to understand structured mathematical
data involving finite groups and derive a theorem about necessary properties of
generators of finite simple groups. We create a database of all 2-generated
subgroups of the symmetric group on n-objects and conduct a classification of
finite simple groups among them using shallow feed-forward neural networks. We
show that this neural network classifier can decipher the property of
simplicity with varying accuracies depending on the features. Our neural
network model leads to a natural conjecture concerning the generators of a
finite simple group. We subsequently prove this conjecture. This new toy
theorem comments on the necessary properties of generators of finite simple
groups. We show this explicitly for a class of sporadic groups for which the
result holds. Our work further makes the case for a machine motivated study of
algebraic structures in pure mathematics and highlights the possibility of
generating new conjectures and theorems in mathematics with the aid of machine
learning.
- Abstract(参考訳): 本研究では,有限群を含む構造的数学的データを理解し,有限単純群の生成器に必要な性質に関する定理を導出するために機械学習を用いる。
n-オブジェクト上の対称群の2つの生成部分群のデータベースを作成し、浅いフィードフォワードニューラルネットワークを用いて有限単純群の分類を行う。
このニューラルネットワーク分類器は、特徴によって異なる精度で単純さの特性を解読できることを示す。
ニューラルネットワークモデルでは,有限単純群の生成元に関する自然な予想が導かれる。
この予想は後に証明する。
この新しいおもちゃの定理は有限単純群の生成元に必要な性質についてコメントする。
結果が成立する散発群のクラスに対して、これを明示的に示す。
さらに,本研究は,純粋数学における代数構造を機械に動機づける研究であり,機械学習を用いて数学において新たな予想や定理を生成する可能性を強調している。
関連論文リスト
- Grokking Group Multiplication with Cosets [10.255744802963926]
アルゴリズムタスクは、ニューラルネットワークをエンドツーエンドに解釈するための実りあるテスト場であることが証明されている。
我々は、置換群$S_5$ と $S_6$ の算術を解き明かした一層ネットワークを完全にリバースエンジニアリングする。
我々は、モデル機構のリバースエンジニアリングについて述べ、我々の理論が回路の機能の忠実な記述であることを確認した。
論文 参考訳(メタデータ) (2023-12-11T18:12:18Z) - TRIGO: Benchmarking Formal Mathematical Proof Reduction for Generative
Language Models [68.65075559137608]
本稿では, ATP ベンチマーク TRIGO を提案する。このベンチマークでは, ステップバイステップの証明で三角法式を縮小するだけでなく, 論理式上で生成する LM の推論能力を評価する。
我々は、Webから三角法式とその縮小フォームを収集し、手作業で単純化プロセスに注釈を付け、それをリーン形式言語システムに翻訳する。
我々はLean-Gymに基づく自動生成装置を開発し、モデルの一般化能力を徹底的に分析するために、様々な困難と分布のデータセット分割を作成する。
論文 参考訳(メタデータ) (2023-10-16T08:42:39Z) - Applications of Finite non-Abelian Simple Groups to Cryptography in the Quantum Era [0.0]
有限非アーベル単純群の暗号への応用を概観し、この理論が明らかに中心となる様々なシナリオについて議論する。
本稿では, 様々な群理論的分解問題に基づく構成, グループ理論的ハッシュ関数のレビュー, および単純群を用いた完全同型暗号について考察する。
論文 参考訳(メタデータ) (2023-08-28T17:30:00Z) - Applying language models to algebraic topology: generating simplicial
cycles using multi-labeling in Wu's formula [0.0]
我々は,機械学習の力を活用して,ホモトピー群の生成者の群論的構造を理解するという目標に向けて一歩踏み出した。
本稿では,入力シーケンスにマルチラベル情報を利用する言語モデリング手法と,必要なグループ理論ツールキットと非線形ベースラインを提案する。
論文 参考訳(メタデータ) (2023-06-01T12:23:14Z) - Categorification of Group Equivariant Neural Networks [0.0]
群同変ニューラルネットワークの線形層関数の理解と操作にカテゴリ理論をどのように利用できるかを示す。
カテゴリー論的構成を用いることで、これらのニューラルネットワークの元々の定式化には見られないよりリッチな構造を構築する。
論文 参考訳(メタデータ) (2023-04-27T12:39:28Z) - Discovering Sparse Representations of Lie Groups with Machine Learning [55.41644538483948]
本手法はローレンツ群の生成元の正準表現を再現することを示す。
このアプローチは完全に一般であり、任意のリー群に対する無限小生成元を見つけるのに使うことができる。
論文 参考訳(メタデータ) (2023-02-10T17:12:05Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Abelian Neural Networks [48.52497085313911]
まず、アベリア群演算のためのニューラルネットワークアーキテクチャを構築し、普遍近似特性を導出する。
連想対称の特徴づけを用いて、アベリア半群演算に拡張する。
固定単語埋め込み上でモデルをトレーニングし、元の word2vec よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-24T11:52:21Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。