論文の概要: Partition of Unity Neural Networks for Interpretable Classification with Explicit Class Regions
- arxiv url: http://arxiv.org/abs/2602.00511v1
- Date: Sat, 31 Jan 2026 04:40:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.228077
- Title: Partition of Unity Neural Networks for Interpretable Classification with Explicit Class Regions
- Title(参考訳): 明示的クラス領域を用いた解釈可能な分類のためのユニティニューラルネットワークの分割
- Authors: Akram Aldroubi,
- Abstract要約: 本稿では,学習したユニティの分割からクラス確率を直接発生させるアーキテクチャであるPUNN(Partition of Unity Neural Networks)を紹介する。
実験により、ガウスゲートを用いたPUNNは標準多層パーセプトロンの0.3-0.6%以内の精度を達成することが示された。
- 参考スコア(独自算出の注目度): 0.7252027234425333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their empirical success, neural network classifiers remain difficult to interpret. In softmax-based models, class regions are defined implicitly as solutions to systems of inequalities among logits, making them difficult to extract and visualize. We introduce Partition of Unity Neural Networks (PUNN), an architecture in which class probabilities arise directly from a learned partition of unity, without requiring a softmax layer. PUNN constructs $k$ nonnegative functions $h_1, \ldots, h_k$ satisfying $\sum_i h_i(x) = 1$, where each $h_i(x)$ directly represents $P(\text{class } i \mid x)$. Unlike softmax, where class regions are defined implicitly through coupled inequalities among logits, each PUNN partition function $h_i$ directly defines the probability of class $i$ as a standalone function of $x$. We prove that PUNN is dense in the space of continuous probability maps on compact domains. The gate functions $g_i$ that define the partition can use various activation functions (sigmoid, Gaussian, bump) and parameterizations ranging from flexible MLPs to parameter-efficient shape-informed designs (spherical shells, ellipsoids, spherical harmonics). Experiments on synthetic data, UCI benchmarks, and MNIST show that PUNN with MLP-based gates achieves accuracy within 0.3--0.6\% of standard multilayer perceptrons. When geometric priors match the data structure, shape-informed gates achieve comparable accuracy with up to 300$\times$ fewer parameters. These results demonstrate that interpretable-by-design architectures can be competitive with black-box models while providing transparent class probability assignments.
- Abstract(参考訳): 経験的な成功にもかかわらず、ニューラルネットワーク分類器は解釈が難しいままである。
ソフトマックスモデルでは、クラス領域はロジットの不等式系の解として暗黙的に定義され、抽出と視覚化が困難である。
本稿では,学習したユニティの分割からクラス確率を直接発生させるアーキテクチャであるPUNN(Partition of Unity Neural Networks)を紹介する。
PUNNは$k$非負関数 $h_1, \ldots, h_k$ を満たす$\sum_i h_i(x) = 1$ を構成し、各$h_i(x)$ は$P(\text{class } i \mid x)$ を直接表現する。
クラスリージョンがロジット間の結合不等式によって暗黙的に定義されるソフトマックスとは異なり、各PUNNパーティション関数$h_i$は、$x$のスタンドアロン関数としてクラス$i$の確率を直接定義する。
PUNNはコンパクト領域上の連続確率写像の空間において密であることを示す。
パーティションを定義する$g_i$は、様々なアクティベーション関数(シグモド、ガウス、バンプ)と、フレキシブルなMLPからパラメータ効率の良い形状インフォームドデザイン(球殻、楕円体、球面調和)まで、パラメータ化を使うことができる。
合成データ、UCIベンチマーク、MNISTの実験は、MPPベースのゲートを持つPUNNが標準多層パーセプトロンの0.3--0.6\%以内の精度を達成することを示した。
幾何学的先行がデータ構造と一致する場合、形状インフォームドゲートは300$\times$より少ないパラメータで同等の精度を達成する。
これらの結果は、解釈可能な設計アーキテクチャは、透過的なクラス確率割り当てを提供しながら、ブラックボックスモデルと競合できることを示している。
関連論文リスト
- v-PuNNs: van der Put Neural Networks for Transparent Ultrametric Representation Learning [0.0]
V-PuNN (van der Put Neural Networks) は,p進球の特性関数を$mathbbZ_p$で表した最初のアーキテクチャである。
透過的Ultrametric Representation Learning (TURL) の原則の下では、全ての重みはそれ自体が p-進数であり、正確な部分木意味論を与える。
したがって、V-PuNNは数論とディープラーニングを橋渡しし、階層データに対して正確で解釈可能で効率的なモデルを提供する。
論文 参考訳(メタデータ) (2025-08-01T18:23:38Z) - Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - Biology-inspired joint distribution neurons based on Hierarchical Correlation Reconstruction allowing for multidirectional neural networks [0.49728186750345144]
低レベル差を除去できるHCR(Arnold correlation Reconstruction)に基づく新しい人工ニューロンが提案されている。
このような HCR ネットワークは $rho(y,z|x)$ のような確率分布(ジョイント)を伝播することもできる。
また、テンソル分解によるdirect $(a_mathbfj)$ Estimationのような追加のトレーニングアプローチも可能である。
論文 参考訳(メタデータ) (2024-05-08T14:49:27Z) - Approximation Rates and VC-Dimension Bounds for (P)ReLU MLP Mixture of Experts [17.022107735675046]
Mixture-of-Experts(MoEs)は、従来のディープラーニングモデルを越えてスケールアップすることができる。
MoMLPモデル全体のVC次元が$tildeO(LmaxnL,JW)$であるので、MoMLPが一般化可能であることを示す。
論文 参考訳(メタデータ) (2024-02-05T19:11:57Z) - Agnostically Learning Multi-index Models with Queries [54.290489524576756]
本稿では,ガウス分布下での非依存学習の課題に対するクエリアクセスのパワーについて検討する。
クエリアクセスは、MIMを不可知的に学習するためのランダムな例よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2023-12-27T15:50:47Z) - On the Identifiability and Estimation of Causal Location-Scale Noise
Models [122.65417012597754]
位置スケール・異方性雑音モデル(LSNM)のクラスについて検討する。
症例によっては, 因果方向が同定可能であることが示唆された。
我々は,LSNMの2つの推定器を提案し,その1つは(非線形)特徴写像に基づく推定器と,1つはニューラルネットワークに基づく推定器を提案する。
論文 参考訳(メタデータ) (2022-10-13T17:18:59Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - Neural Bayes: A Generic Parameterization Method for Unsupervised
Representation Learning [175.34232468746245]
本稿ではニューラルベイズと呼ばれるパラメータ化手法を提案する。
これは一般に計算が難しい統計量の計算を可能にする。
このパラメータ化のための2つの独立したユースケースを示す。
論文 参考訳(メタデータ) (2020-02-20T22:28:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。