論文の概要: Can Neural Networks Learn Small Algebraic Worlds? An Investigation Into the Group-theoretic Structures Learned By Narrow Models Trained To Predict Group Operations
- arxiv url: http://arxiv.org/abs/2601.21150v1
- Date: Thu, 29 Jan 2026 01:18:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.499773
- Title: Can Neural Networks Learn Small Algebraic Worlds? An Investigation Into the Group-theoretic Structures Learned By Narrow Models Trained To Predict Group Operations
- Title(参考訳): ニューラルネットワークは小さな代数的世界を学ぶことができるか?群演算を予測した狭いモデルから学ぶ群理論構造の研究
- Authors: Henry Kvinge, Andrew Aguilar, Nayda Farnsworth, Grace O'Brien, Robert Jasper, Sarah Scullen, Helen Jenne,
- Abstract要約: 固定された数学的タスクを解くために訓練された狭いモデルが、研究者や他のAIシステムによって抽出できるより広い数学的構造を学習する範囲について検討する。
モデルがアイデンティティ要素、可換性、サブグループなどの重要なグループ理論概念を捉えるかどうかを評価するために設計された一連のテストについて述べる。
この結果から,小さなニューラルネットワークでも,新しい数学的対象から興味深い抽象構造を抽出することができることが示唆された。
- 参考スコア(独自算出の注目度): 4.635620949885696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While a real-world research program in mathematics may be guided by a motivating question, the process of mathematical discovery is typically open-ended. Ideally, exploration needed to answer the original question will reveal new structures, patterns, and insights that are valuable in their own right. This contrasts with the exam-style paradigm in which the machine learning community typically applies AI to math. To maximize progress in mathematics using AI, we will need to go beyond simple question answering. With this in mind, we explore the extent to which narrow models trained to solve a fixed mathematical task learn broader mathematical structure that can be extracted by a researcher or other AI system. As a basic test case for this, we use the task of training a neural network to predict a group operation (for example, performing modular arithmetic or composition of permutations). We describe a suite of tests designed to assess whether the model captures significant group-theoretic notions such as the identity element, commutativity, or subgroups. Through extensive experimentation we find evidence that models learn representations capable of capturing abstract algebraic properties. For example, we find hints that models capture the commutativity of modular arithmetic. We are also able to train linear classifiers that reliably distinguish between elements of certain subgroups (even though no labels for these subgroups are included in the data). On the other hand, we are unable to extract notions such as the concept of the identity element. Together, our results suggest that in some cases the representations of even small neural networks can be used to distill interesting abstract structure from new mathematical objects.
- Abstract(参考訳): 数学における現実世界の研究プログラムはモチベーションのある質問によって導かれるかもしれないが、数学的発見の過程は一般にオープンエンドである。
理想的には、最初の質問に答えるために必要な探索は、自分たちにとって価値のある新しい構造、パターン、洞察を明らかにする。
これは、機械学習コミュニティが一般的に数学にAIを適用する試験スタイルのパラダイムとは対照的である。
AIを用いた数学の進歩を最大化するためには、単純な質問応答を超越する必要がある。
このことを念頭に置いて、固定された数学的タスクを解くために訓練された狭いモデルが、研究者や他のAIシステムによって抽出できるより広い数学的構造を学習する範囲について検討する。
これの基本的なテストケースとして、ニューラルネットワークをトレーニングしてグループ操作を予測するタスク(例えば、モジュラー演算や置換の合成)を用いる。
モデルがアイデンティティ要素、可換性、サブグループなどの重要なグループ理論概念を捉えるかどうかを評価するために設計された一連のテストについて述べる。
広範な実験を通じて、モデルが抽象代数的性質を捉えることができる表現を学習する証拠が見つかる。
例えば、モデルがモジュラー算術の可換性を捉えるヒントを見つける。
また、ある部分群の要素を確実に区別する線形分類器を訓練することもできます(データにはこれらの部分群のラベルは含まれていませんが)。
一方、アイデンティティ要素の概念のような概念を抽出することはできない。
この結果から,小さなニューラルネットワークでも,新しい数学的対象から興味深い抽象構造を抽出することができることが示唆された。
関連論文リスト
- Data for Mathematical Copilots: Better Ways of Presenting Proofs for Machine Learning [85.635988711588]
我々は,大規模言語モデルの能力向上には,数学的データセットの設計におけるパラダイムシフトが必要であると論じる。
1949年にG. P'olyaが導入した「動機付き証明」の概念は、より良い証明学習信号を提供するデータセットの青写真として機能する。
数学データセットに特化して設計されたアンケートでは、クリエーターにデータセットを含めるよう促します。
論文 参考訳(メタデータ) (2024-12-19T18:55:17Z) - Machines and Mathematical Mutations: Using GNNs to Characterize Quiver Mutation Classes [4.229995708813431]
グラフニューラルネットワークを使って、あるクイバーを別のクイバーに変換する操作である、Emphquiverの突然変異を調査します。
クラスター代数の研究において、置換同値性の問題は基本的な関心事である。
我々のモデルは、既知の基準を$D$から再構築できるように、その隠された表現内で構造をキャプチャすることを示した。
論文 参考訳(メタデータ) (2024-11-12T01:09:41Z) - Learning to be Simple [0.0]
有限群を含む構造化された数学的データを理解するために機械学習を用いる。
有限単純群の生成元に必要な性質に関する定理を導出する。
我々の研究は、機械学習の助けを借りて数学の新しい予想と定理を生成する可能性を強調している。
論文 参考訳(メタデータ) (2023-12-08T19:00:00Z) - The Clock and the Pizza: Two Stories in Mechanistic Explanation of
Neural Networks [59.26515696183751]
ニューラルネットワークにおけるアルゴリズム発見は、時としてより複雑であることを示す。
単純な学習問題でさえ、驚くほど多様なソリューションを許容できることが示されています。
論文 参考訳(メタデータ) (2023-06-30T17:59:13Z) - Abstraction, Reasoning and Deep Learning: A Study of the "Look and Say"
Sequence [0.0]
ディープニューラルネットワークは、大規模なデータセットでトレーニングされた場合、高い能力(精度で測定される)を示すことができる。
パズルデータ「Look and Say」の2つのセット実験について報告する。
トレーニングデータとテストデータの両方で)驚くべき精度にもかかわらず、実際のL&Sシーケンス上でのトレーニングプログラムのパフォーマンスは悪いです。
論文 参考訳(メタデータ) (2021-09-27T01:41:37Z) - Learning Algebraic Recombination for Compositional Generalization [71.78771157219428]
合成一般化のための代数的組換え学習のためのエンドツーエンドニューラルモデルLeARを提案する。
主要な洞察は、意味解析タスクを潜在構文代数学と意味代数学の間の準同型としてモデル化することである。
2つの現実的・包括的構成一般化の実験は、我々のモデルの有効性を実証している。
論文 参考訳(メタデータ) (2021-07-14T07:23:46Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Abelian Neural Networks [48.52497085313911]
まず、アベリア群演算のためのニューラルネットワークアーキテクチャを構築し、普遍近似特性を導出する。
連想対称の特徴づけを用いて、アベリア半群演算に拡張する。
固定単語埋め込み上でモデルをトレーニングし、元の word2vec よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-24T11:52:21Z) - Machine Number Sense: A Dataset of Visual Arithmetic Problems for
Abstract and Relational Reasoning [95.18337034090648]
文法モデルを用いて自動生成される視覚的算術問題からなるデータセット、MNS(Machine Number Sense)を提案する。
これらの視覚的算術問題は幾何学的フィギュアの形をしている。
我々は、この視覚的推論タスクのベースラインとして、4つの主要なニューラルネットワークモデルを用いて、MNSデータセットをベンチマークする。
論文 参考訳(メタデータ) (2020-04-25T17:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。