論文の概要: Neural Isomorphic Fields: A Transformer-based Algebraic Numerical Embedding
- arxiv url: http://arxiv.org/abs/2601.12095v1
- Date: Sat, 17 Jan 2026 16:25:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.461152
- Title: Neural Isomorphic Fields: A Transformer-based Algebraic Numerical Embedding
- Title(参考訳): ニューラル等方性場:変圧器を用いた代数的数値埋め込み
- Authors: Hamidreza Sadeghi, Saeedeh Momtazi, Reza Safabakhsh,
- Abstract要約: そこで本研究では,数値を直接使用する代わりに,数値に対する埋め込みベクトルを提案する。
これらの埋め込みは、数値不安定を防ぎながら重要な代数的性質を維持することを目的としている。
代数演算を保存する固定長数埋め込みベクトルを初めて導入する。
- 参考スコア(独自算出の注目度): 4.0782474409194736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network models often face challenges when processing very small or very large numbers due to issues such as overflow, underflow, and unstable output variations. To mitigate these problems, we propose using embedding vectors for numbers instead of directly using their raw values. These embeddings aim to retain essential algebraic properties while preventing numerical instabilities. In this paper, we introduce, for the first time, a fixed-length number embedding vector that preserves algebraic operations, including addition, multiplication, and comparison, within the field of rational numbers. We propose a novel Neural Isomorphic Field, a neural abstraction of algebraic structures such as groups and fields. The elements of this neural field are embedding vectors that maintain algebraic structure during computations. Our experiments demonstrate that addition performs exceptionally well, achieving over 95 percent accuracy on key algebraic tests such as identity, closure, and associativity. In contrast, multiplication exhibits challenges, with accuracy ranging from 53 percent to 73 percent across various algebraic properties. These findings highlight the model's strengths in preserving algebraic properties under addition while identifying avenues for further improvement in handling multiplication.
- Abstract(参考訳): ニューラルネットワークモデルは、オーバーフロー、アンダーフロー、不安定な出力変動などの問題により、非常に小さなあるいは非常に大きな数値を処理する場合、しばしば課題に直面します。
そこで本研究では,これらの問題を緩和するために,実値を直接使用するのではなく,埋め込みベクトルを数値に組み込む手法を提案する。
これらの埋め込みは、数値不安定を防ぎながら重要な代数的性質を維持することを目的としている。
本稿では,有理数体内の加法,乗算,比較を含む代数演算を保存する固定長数埋め込みベクトルを初めて導入する。
本稿では,群や体などの代数構造のニューラル抽象化であるニューラル同型場を提案する。
このニューラルネットワークの要素は、計算中に代数構造を維持する埋め込みベクトルである。
実験の結果, 付加性能は極めて良好であり, 同一性, 閉包性, 連想性などの重要な代数的テストにおいて95%以上の精度が得られた。
対照的に、乗法は、様々な代数的性質に対して53%から73%の精度で困難を示す。
これらの知見は、加法の下で代数的性質を保存する上でのモデルの強みを強調し、乗算処理のさらなる改善のための道を特定した。
関連論文リスト
- From Polynomials to Databases: Arithmetic Structures in Galois Theory [0.0]
本研究では,非既約次数7のガロア群を$mathbbQ$で分類するフレームワークを開発し,明示的な解決法と機械学習技術を組み合わせた。
正規化プロジェクトセシティクスが100万を超えるデータベースを構築し、それぞれが2進法から派生した不変量$J_0,ドット、J_4$で注釈付けされる。
論文 参考訳(メタデータ) (2025-11-20T18:29:38Z) - A Fast Convoluted Story: Scaling Probabilistic Inference for Integer Arithmetic [4.7223923266180785]
整数値の確率変数に対する線形算術をテンソル演算として定式化する。
我々は、自由な勾配に基づく学習のために、事実上アンロック可能な、微分可能なデータ構造を得る。
論文 参考訳(メタデータ) (2024-10-16T09:16:10Z) - Knowledge Composition using Task Vectors with Learned Anisotropic Scaling [51.4661186662329]
本稿では,パラメータブロックと異なる学習係数を線形に組み合わせ,タスクベクトルレベルでの異方性スケーリングを実現するアルゴリズムであるaTLASを紹介する。
このような線形結合は事前学習されたモデルの低内在性を明示的に利用しており、学習可能なパラメータは数係数のみであることを示す。
本稿では,タスク算術,少数ショット認識,テスト時間適応において,教師なしあるいは教師なしの目的を用いた手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-07-03T07:54:08Z) - Covering Number of Real Algebraic Varieties and Beyond: Improved Bounds and Applications [8.438718130535296]
ユークリッド空間における多くの集合の被覆数について上限を証明する。
本稿では,3つの計算応用における結果のパワーについて説明する。
論文 参考訳(メタデータ) (2023-11-09T03:06:59Z) - Linear algebra with transformers [0.0]
数値計算を高精度に行うために,変圧器を訓練できることを示す。
線形代数の問題を考察する:行列変換、加算、乗法、固有値とベクトル、特異値分解、反転。
論文 参考訳(メタデータ) (2021-12-03T13:21:57Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - Recognizing and Verifying Mathematical Equations using Multiplicative
Differential Neural Units [86.9207811656179]
メモリ拡張ニューラルネットワーク(NN)は、高次、メモリ拡張外挿、安定した性能、より高速な収束を実現することができることを示す。
本モデルでは,現在の手法と比較して1.53%の精度向上を達成し,2.22%のtop-1平均精度と2.96%のtop-5平均精度を達成している。
論文 参考訳(メタデータ) (2021-04-07T03:50:11Z) - Quantum-Inspired Algorithms from Randomized Numerical Linear Algebra [53.46106569419296]
我々は、リコメンダシステムと最小二乗回帰のためのクエリをサポートする古典的な(量子でない)動的データ構造を作成する。
これらの問題に対する以前の量子インスパイアされたアルゴリズムは、レバレッジやリッジレベレッジスコアを偽装してサンプリングしていると我々は主張する。
論文 参考訳(メタデータ) (2020-11-09T01:13:07Z) - Algebraic Neural Networks: Stability to Deformations [179.55535781816343]
可換代数を用いた代数ニューラルネットワーク(AlgNN)について検討する。
AlgNNはユークリッド畳み込みニューラルネットワーク、グラフニューラルネットワーク、グループニューラルネットワークなどの多様なアーキテクチャを統合する。
論文 参考訳(メタデータ) (2020-09-03T03:41:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。