論文の概要: v-PuNNs: van der Put Neural Networks for Transparent Ultrametric Representation Learning
- arxiv url: http://arxiv.org/abs/2508.01010v1
- Date: Fri, 01 Aug 2025 18:23:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.662417
- Title: v-PuNNs: van der Put Neural Networks for Transparent Ultrametric Representation Learning
- Title(参考訳): v-PuNNs:透過的超音波表現学習のためのファンデルプートニューラルネットワーク
- Authors: Gnankan Landry Regis N'guessan,
- Abstract要約: V-PuNN (van der Put Neural Networks) は,p進球の特性関数を$mathbbZ_p$で表した最初のアーキテクチャである。
透過的Ultrametric Representation Learning (TURL) の原則の下では、全ての重みはそれ自体が p-進数であり、正確な部分木意味論を与える。
したがって、V-PuNNは数論とディープラーニングを橋渡しし、階層データに対して正確で解釈可能で効率的なモデルを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional deep learning models embed data in Euclidean space $\mathbb{R}^d$, a poor fit for strictly hierarchical objects such as taxa, word senses, or file systems. We introduce van der Put Neural Networks (v-PuNNs), the first architecture whose neurons are characteristic functions of p-adic balls in $\mathbb{Z}_p$. Under our Transparent Ultrametric Representation Learning (TURL) principle every weight is itself a p-adic number, giving exact subtree semantics. A new Finite Hierarchical Approximation Theorem shows that a depth-K v-PuNN with $\sum_{j=0}^{K-1}p^{\,j}$ neurons universally represents any K-level tree. Because gradients vanish in this discrete space, we propose Valuation-Adaptive Perturbation Optimization (VAPO), with a fast deterministic variant (HiPaN-DS) and a moment-based one (HiPaN / Adam-VAPO). On three canonical benchmarks our CPU-only implementation sets new state-of-the-art: WordNet nouns (52,427 leaves) 99.96% leaf accuracy in 16 min; GO molecular-function 96.9% leaf / 100% root in 50 s; NCBI Mammalia Spearman $\rho = -0.96$ with true taxonomic distance. The learned metric is perfectly ultrametric (zero triangle violations), and its fractal and information-theoretic properties are analyzed. Beyond classification we derive structural invariants for quantum systems (HiPaQ) and controllable generative codes for tabular data (Tab-HiPaN). v-PuNNs therefore bridge number theory and deep learning, offering exact, interpretable, and efficient models for hierarchical data.
- Abstract(参考訳): 従来のディープラーニングモデルはユークリッド空間$\mathbb{R}^d$にデータを埋め込む。
ファンデルプートニューラルネットワーク(v-PuNNs)は,p進球が$\mathbb{Z}_p$で特徴的な機能を持つ最初のアーキテクチャである。
透過的Ultrametric Representation Learning (TURL) の原則の下では、全ての重みはそれ自体が p-進数であり、正確な部分木意味論を与える。
新しい有限階層近似定理は、$\sum_{j=0}^{K-1}p^{\,j}$ニューロンの深さ-K v-PuNNが任意のKレベルツリーを普遍的に表現していることを示している。
この離散空間で勾配が消えるので、高速決定論的変種 (HiPaN-DS) とモーメントベースの変種 (HiPaN / Adam-VAPO) を持つ値適応摂動最適化 (VAPO) を提案する。
WordNet nouns (52,427 leaves) 99.96% leaf accuracy in 16 min; GO molecular-function 96.9% leaf / 100% root in 50 s; NCBI Mammalia Spearman $\rho = -0.96$ with true taxonomic distance。
学習した計量は完全超測度(ゼロ三角形違反)であり、そのフラクタルおよび情報理論的性質を解析する。
分類以外にも、量子系 (HiPaQ) の構造不変量や、表データ (Tab-HiPaN) の制御可能な生成符号を導出する。
v-PuNNは数論とディープラーニングを橋渡しし、階層データに対して正確で解釈可能で効率的なモデルを提供する。
関連論文リスト
- Biology-inspired joint distribution neurons based on Hierarchical Correlation Reconstruction allowing for multidirectional neural networks [0.49728186750345144]
低レベル差を除去できるHCR(Arnold correlation Reconstruction)に基づく新しい人工ニューロンが提案されている。
このような HCR ネットワークは $rho(y,z|x)$ のような確率分布(ジョイント)を伝播することもできる。
また、テンソル分解によるdirect $(a_mathbfj)$ Estimationのような追加のトレーニングアプローチも可能である。
論文 参考訳(メタデータ) (2024-05-08T14:49:27Z) - Multi-layer random features and the approximation power of neural networks [4.178980693837599]
再現カーネルヒルベルト空間はアーキテクチャによって近似できる関数のみを含むことを証明している。
NNGPの積分作用素の固有値が$k-n-frac23$よりも遅く、$k$が固有値の順序である場合、我々の定理はバロンの定理よりも簡潔なニューラルネットワーク近似を保証する。
論文 参考訳(メタデータ) (2024-04-26T14:57:56Z) - A Classification of $G$-invariant Shallow Neural Networks [1.4213973379473654]
我々は、ReLUアクティベーションを伴う全ての$G$不変シングルハイデン層または"シャロー"ニューラルネットワーク(G$-SNN)アーキテクチャの分類を与える定理を証明した。
いくつかの例群に対して$G$-SNNアーキテクチャを列挙し、それらの構造を視覚化する。
論文 参考訳(メタデータ) (2022-05-18T21:18:16Z) - Exploring the Common Principal Subspace of Deep Features in Neural
Networks [50.37178960258464]
我々は、同じデータセットでトレーニングされた異なるディープニューラルネットワーク(DNN)が、潜在空間において共通の主部分空間を共有することを発見した。
具体的には、DNNで学んだ深い機能の主部分空間を表すために、$mathcalP$-vectorを新たに設計する。
異なるアルゴリズム/アーキテクチャで訓練された2つのDNNの比較では、小さな角度(コサインが1.0ドルに近い)が見つかっている。
論文 参考訳(メタデータ) (2021-10-06T15:48:32Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - To Boost or not to Boost: On the Limits of Boosted Neural Networks [67.67776094785363]
ブースティングは分類器のアンサンブルを学ぶ方法である。
ブースティングは決定木に非常に有効であることが示されているが、ニューラルネットワークへの影響は広く研究されていない。
単一のニューラルネットワークは通常、同じ数のパラメータを持つ小さなニューラルネットワークの強化されたアンサンブルよりもよく一般化される。
論文 参考訳(メタデータ) (2021-07-28T19:10:03Z) - Learning Syllogism with Euler Neural-Networks [20.47827965932698]
ボールの中心ベクトルは、従来のニューラルネットワークの表現力を継承できるベクトルである。
6つのRectified Space Units (ReSU) を持つ新しいバックプロパゲーションアルゴリズムは、論理的前提を表すオイラー図を最適化することができる。
従来のニューラルネットワークとは対照的に、ERNはSyllogismの24の異なる構造をすべて正確に表現することができる。
論文 参考訳(メタデータ) (2020-07-14T19:35:35Z) - Learning Reasoning Strategies in End-to-End Differentiable Proving [50.9791149533921]
条件付き定理プローバーは勾配に基づく最適化により最適規則選択戦略を学習する。
条件付き定理プローサは拡張性があり、CLUTRRデータセット上で最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-13T16:22:14Z) - Deep Polynomial Neural Networks [77.70761658507507]
$Pi$Netsは拡張に基づいた関数近似の新しいクラスである。
$Pi$Netsは、画像生成、顔検証、および3Dメッシュ表現学習という3つの困難なタスクで、最先端の結果を生成する。
論文 参考訳(メタデータ) (2020-06-20T16:23:32Z) - Neural Bayes: A Generic Parameterization Method for Unsupervised
Representation Learning [175.34232468746245]
本稿ではニューラルベイズと呼ばれるパラメータ化手法を提案する。
これは一般に計算が難しい統計量の計算を可能にする。
このパラメータ化のための2つの独立したユースケースを示す。
論文 参考訳(メタデータ) (2020-02-20T22:28:53Z) - Backward Feature Correction: How Deep Learning Performs Deep
(Hierarchical) Learning [66.05472746340142]
本稿では,SGD による階層的学習 _efficiently_ と _automatically_ を学習目標として,多層ニューラルネットワークがどのように行うかを分析する。
我々は、下位機能のエラーを上位層と共にトレーニングする際に自動的に修正できる"後方特徴補正"と呼ばれる新しい原則を確立する。
論文 参考訳(メタデータ) (2020-01-13T17:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。