論文の概要: Learning with the $p$-adics
- arxiv url: http://arxiv.org/abs/2512.22692v1
- Date: Sat, 27 Dec 2025 19:40:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.18022
- Title: Learning with the $p$-adics
- Title(参考訳): $p$-adicsで学ぶ
- Authors: André F. T. Martins,
- Abstract要約: 我々は、$mathbbR$, $mathbbQ_p$, $mathbbQ_p$の超測度および非アルキメデス空間の代替として、根本的に異なる分野の適合性について研究する。
p$-adicsの階層構造と無限文字列としての解釈は、コード理論と階層的表現学習にとって魅力的なツールである。
- 参考スコア(独自算出の注目度): 26.431600220740354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing machine learning frameworks operate over the field of real numbers ($\mathbb{R}$) and learn representations in real (Euclidean or Hilbert) vector spaces (e.g., $\mathbb{R}^d$). Their underlying geometric properties align well with intuitive concepts such as linear separability, minimum enclosing balls, and subspace projection; and basic calculus provides a toolbox for learning through gradient-based optimization. But is this the only possible choice? In this paper, we study the suitability of a radically different field as an alternative to $\mathbb{R}$ -- the ultrametric and non-archimedean space of $p$-adic numbers, $\mathbb{Q}_p$. The hierarchical structure of the $p$-adics and their interpretation as infinite strings make them an appealing tool for code theory and hierarchical representation learning. Our exploratory theoretical work establishes the building blocks for classification, regression, and representation learning with the $p$-adics, providing learning models and algorithms. We illustrate how simple Quillian semantic networks can be represented as a compact $p$-adic linear network, a construction which is not possible with the field of reals. We finish by discussing open problems and opportunities for future research enabled by this new framework.
- Abstract(参考訳): 既存の機械学習フレームワークは実数体($\mathbb{R}$)上で動作し、実(ユークリッドまたはヒルベルト)ベクトル空間における表現(例えば、$\mathbb{R}^d$)を学ぶ。
その基礎となる幾何学的性質は、線形分離性、最小囲み球、部分空間射影といった直感的な概念とよく一致しており、基礎計算は勾配に基づく最適化を通じて学習するためのツールボックスを提供する。
しかし、これが唯一の選択肢なのだろうか?
本稿では、$\mathbb{R}$, $\mathbb{Q}_p$の超計量および非アルキメデス空間の代替として、急激な異なる分野の適合性について検討する。
p$-adicsの階層構造と無限文字列としての解釈は、コード理論と階層的表現学習にとって魅力的なツールである。
我々の探索理論的研究は、分類、回帰、表現学習のためのビルディングブロックを$p$-adicsで確立し、学習モデルとアルゴリズムを提供する。
簡単なQuillian意味ネットワークは、実数体では不可能な構成であるコンパクトな$p$-adic線形ネットワークとして表すことができる。
この新しいフレームワークによって実現される今後の研究の機会とオープンな問題について論じる。
関連論文リスト
- v-PuNNs: van der Put Neural Networks for Transparent Ultrametric Representation Learning [0.0]
V-PuNN (van der Put Neural Networks) は,p進球の特性関数を$mathbbZ_p$で表した最初のアーキテクチャである。
透過的Ultrametric Representation Learning (TURL) の原則の下では、全ての重みはそれ自体が p-進数であり、正確な部分木意味論を与える。
したがって、V-PuNNは数論とディープラーニングを橋渡しし、階層データに対して正確で解釈可能で効率的なモデルを提供する。
論文 参考訳(メタデータ) (2025-08-01T18:23:38Z) - $p$-Adic Polynomial Regression as Alternative to Neural Network for Approximating $p$-Adic Functions of Many Variables [55.2480439325792]
任意の精度で連続関数を近似できる回帰モデルを構築している。
提案モデルは、ニューラルネットワークアーキテクチャに基づく$p$-adicモデルの簡単な代替と見なすことができる。
論文 参考訳(メタデータ) (2025-03-30T15:42:08Z) - Geometry of fibers of the multiplication map of deep linear neural networks [0.0]
固定行列に乗算する構成可能な行列のクイバーの集合の幾何学について検討する。
我々の解は、同変コホモロジーにおけるポアンカー級数、二次整数プログラム、明示的な公式の3つの形式で表される。
論文 参考訳(メタデータ) (2024-11-29T18:36:03Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - An Approximation Theory for Metric Space-Valued Functions With A View
Towards Deep Learning [25.25903127886586]
任意のポーランド計量空間 $mathcalX$ と $mathcalY$ の間の連続写像の普遍函数近似器を構築する。
特に、必要なディラック測度数は $mathcalX$ と $mathcalY$ の構造によって決定されることを示す。
論文 参考訳(メタデータ) (2023-04-24T16:18:22Z) - AlgebraNets [35.311476442807766]
本研究では, enwiki8 と WikiText-103 データセットを用いて代用代数学を数値表現として研究する。
我々は$mathbbC$, $mathbbH$, $M_2(mathbbR)$, $M_3(mathbbR)$, $M_4(mathbbR)$を考える。
これらの代数の乗法は実乗法よりも計算密度が高い。
論文 参考訳(メタデータ) (2020-06-12T17:51:20Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z) - Backward Feature Correction: How Deep Learning Performs Deep
(Hierarchical) Learning [66.05472746340142]
本稿では,SGD による階層的学習 _efficiently_ と _automatically_ を学習目標として,多層ニューラルネットワークがどのように行うかを分析する。
我々は、下位機能のエラーを上位層と共にトレーニングする際に自動的に修正できる"後方特徴補正"と呼ばれる新しい原則を確立する。
論文 参考訳(メタデータ) (2020-01-13T17:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。