論文の概要: Bhargava Cube--Inspired Quadratic Regularization for Structured Neural Embeddings
- arxiv url: http://arxiv.org/abs/2512.11392v1
- Date: Fri, 12 Dec 2025 09:05:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.708786
- Title: Bhargava Cube--Inspired Quadratic Regularization for Structured Neural Embeddings
- Title(参考訳): Bhargava Cube-インスパイアされた構造型ニューラルネットワークの2次正規化
- Authors: S Sairam, Prateek P Kulkarni,
- Abstract要約: 本稿では,Bhargava立方体に着想を得た代数的制約を数論から取り入れたニューラル表現学習手法を提案する。
本フレームワークは,学習された二次関係を満たすために埋め込みを正規化する制約付き3次元潜在空間に入力データをマッピングする。
我々はMNISTの評価を行い、99.46%の精度を達成しつつ、自然に1桁ずつクラスタリングする解釈可能な3D埋め込みを生成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel approach to neural representation learning that incorporates algebraic constraints inspired by Bhargava cubes from number theory. Traditional deep learning methods learn representations in unstructured latent spaces lacking interpretability and mathematical consistency. Our framework maps input data to constrained 3-dimensional latent spaces where embeddings are regularized to satisfy learned quadratic relationships derived from Bhargava's combinatorial structures. The architecture employs a differentiable auxiliary loss function operating independently of classification objectives, guiding models toward mathematically structured representations. We evaluate on MNIST, achieving 99.46% accuracy while producing interpretable 3D embeddings that naturally cluster by digit class and satisfy learned quadratic constraints. Unlike existing manifold learning approaches requiring explicit geometric supervision, our method imposes weak algebraic priors through differentiable constraints, ensuring compatibility with standard optimization. This represents the first application of number-theoretic constructs to neural representation learning, establishing a foundation for incorporating structured mathematical priors in neural networks.
- Abstract(参考訳): 本稿では,Bhargava立方体に着想を得た代数的制約を数論から取り入れたニューラル表現学習手法を提案する。
従来のディープラーニング手法は、解釈可能性や数学的整合性に欠ける非構造潜在空間における表現を学習する。
本フレームワークは,Bhargavaの組合せ構造から得られた学習された二次関係を満たすために,埋め込みが正規化される制約付き3次元潜在空間に入力データをマッピングする。
このアーキテクチャは、分類対象とは独立に動作し、数学的に構造化された表現に向けてモデルを導く、微分可能な補助損失関数を用いる。
我々はMNISTの評価を行い、99.46%の精度を達成しつつ、自然に1桁ずつクラスタリングし、学習された二次的制約を満たす解釈可能な3D埋め込みを生成した。
既存の多様体学習手法とは違い,本手法では,微分可能な制約によって代数的先行性を弱くし,標準最適化との整合性を確保する。
これは神経表現学習への数論的な構成の最初の応用であり、ニューラルネットワークに構造化された数学的前提を組み込む基盤を確立している。
関連論文リスト
- Learning Neural Antiderivatives [17.270555521913902]
本研究は, 反復性抗誘導体の神経表現を関数から直接学習する問題について考察する。
我々は、反復的な統合のための様々なニューラルメソッドを導入、分析する。
論文 参考訳(メタデータ) (2025-09-22T13:19:07Z) - Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - Concept-Guided Interpretability via Neural Chunking [64.6429903327095]
ニューラルネットワークは、トレーニングデータの規則性を反映した生の集団活動のパターンを示す。
神経集団レベルで繰り返しチャンクを抽出する3つの方法を提案する。
私たちの研究は、認知原則と自然主義的データの構造の両方を活用する、解釈可能性の新しい方向性を指し示しています。
論文 参考訳(メタデータ) (2025-05-16T13:49:43Z) - Manifold-Constrained Sentence Embeddings via Triplet Loss: Projecting Semantics onto Spheres, Tori, and Möbius Strips [0.0]
連続多様体上の文埋め込みを制約する新しい枠組みを導入する。
出力空間上の微分幾何学的制約を強制することにより、我々のアプローチは、識別的かつ位相的に構造化された埋め込みの学習を促進する。
以上の結果から,特に球面やM "obius stripsに射影された多様体制約埋め込みは,クラスタリング品質と分類性能の両方において従来の手法よりも著しく優れていた。
論文 参考訳(メタデータ) (2025-04-22T19:20:53Z) - Artificial Neural Networks on Graded Vector Spaces [0.0]
本稿では,次数ベクトル空間上での人工ニューラルネットワークの変換フレームワークを提案する。
我々は、構造的整合性を維持するため、古典的なニューラルネットワークをグレードされたニューロン、層、アクティベーション関数で拡張する。
ケーススタディでは、重み付き射影空間における不変量を予測するといったタスクにおいて、標準ニューラルネットワークよりも優れた、フレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-07-26T18:17:58Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - From Bricks to Bridges: Product of Invariances to Enhance Latent Space Communication [19.336940758147442]
異なるニューラルネットワークによって学習された表現は、モデルが同様の誘導バイアスの下で訓練されたときに構造的類似性を隠蔽することが観察されている。
我々は,不変成分の積空間を潜在表現の上に構築し,その表現に不変量の集合を直接組み込む汎用的手法を導入する。
我々は,ゼロショット縫合設定において,一貫した遅延類似性および下流性能向上を観察し,分類および再構成タスクに対するソリューションの有効性を検証した。
論文 参考訳(メタデータ) (2023-10-02T13:55:38Z) - TANGOS: Regularizing Tabular Neural Networks through Gradient
Orthogonalization and Specialization [69.80141512683254]
TANGOS(Tbular Neural Gradient Orthogonalization and gradient)を紹介する。
TANGOSは、潜在ユニット属性上に構築された表の設定を正規化するための新しいフレームワークである。
提案手法は,他の一般的な正規化手法よりも優れ,サンプル外一般化性能の向上につながることを実証する。
論文 参考訳(メタデータ) (2023-03-09T18:57:13Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。