論文の概要: Improving Set Function Approximation with Quasi-Arithmetic Neural Networks
- arxiv url: http://arxiv.org/abs/2602.04941v1
- Date: Wed, 04 Feb 2026 18:36:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.566352
- Title: Improving Set Function Approximation with Quasi-Arithmetic Neural Networks
- Title(参考訳): 準アルゴリズムニューラルネットワークによる集合関数近似の改善
- Authors: Tomas Tokar, Scott Sanner,
- Abstract要約: 準数学的ニューラルネットワーク(qui-arithmetic Neural Network, QUINN)を提案する。
quaNNは、一般的な集合関数分解の幅広いクラスに対する普遍近似である。
理論解析により、quarNNは共通な集合関数分解の幅広いクラスに対する普遍近似であることを示す。
- 参考スコア(独自算出の注目度): 23.73257235603082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sets represent a fundamental abstraction across many types of data. To handle the unordered nature of set-structured data, models such as DeepSets and PointNet rely on fixed, non-learnable pooling operations (e.g., sum or max) -- a design choice that can hinder the transferability of learned embeddings and limits model expressivity. More recently, learnable aggregation functions have been proposed as more expressive alternatives. In this work, we advance this line of research by introducing the Neuralized Kolmogorov Mean (NKM) -- a novel, trainable framework for learning a generalized measure of central tendency through an invertible neural function. We further propose quasi-arithmetic neural networks (QUANNs), which incorporate the NKM as a learnable aggregation function. We provide a theoretical analysis showing that, QUANNs are universal approximators for a broad class of common set-function decompositions and, thanks to their invertible neural components, learn more structured latent representations. Empirically, QUANNs outperform state-of-the-art baselines across diverse benchmarks, while learning embeddings that transfer effectively even to tasks that do not involve sets.
- Abstract(参考訳): 集合は、多くの種類のデータにまたがる基本的な抽象化を表す。
集合構造データの非順序性を扱うため,DeepSets や PointNet などのモデルでは,学習した埋め込みの伝達可能性やモデル表現性の制限を阻害する,固定的かつ学習不能なプール操作 (例えば,和や最大値) に頼っている。近年では,学習可能な集約関数がより表現力のある代替手段として提案されている。本研究では,ニューラル化コルモゴロフ平均 (NKM) を導入して,この研究の行を推し進める。これは,可逆的ニューラル関数を通じて中心的傾向の一般化を学習するための,新しいトレーニング可能なフレームワークである。
さらに、NKMを学習可能な集約関数として組み込んだ準数学ニューラルネットワーク(quasi-arithmetic Neural Network, QUINN)を提案する。
我々は、quarNNは、一般的な集合関数分解の幅広いクラスに対する普遍的な近似であり、その可逆的ニューラルネットワーク成分のおかげで、より構造化された潜在表現を学習することを示す理論解析を提供する。
実証的には、QUINNはさまざまなベンチマークで最先端のベースラインを上回り、一方で、集合を含まないタスクに効率的に移行する埋め込みを学習する。
関連論文リスト
- Weights initialization of neural networks for function approximation [0.9099663022952497]
ニューラルネットワークに基づく関数近似は、科学計算と機械学習の発展に重要な役割を果たしている。
基本関数事前学習に基づく再利用可能なフレームワークを提案する。
このアプローチでは、ベースニューラルネットワークはまず、参照ドメイン上の構造対応の族を近似するように訓練される。
学習したパラメータは、より複雑なターゲット関数のためのネットワークの初期化に使用される。
論文 参考訳(メタデータ) (2025-10-09T19:56:26Z) - Enhancing Neural Subset Selection: Integrating Background Information into Set Representations [53.15923939406772]
対象値が入力集合とサブセットの両方に条件付けされている場合、スーパーセットのテクスティ不変な統計量を関心のサブセットに組み込むことが不可欠であることを示す。
これにより、出力値がサブセットとその対応するスーパーセットの置換に不変であることを保証する。
論文 参考訳(メタデータ) (2024-02-05T16:09:35Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Random Graph-Based Neuromorphic Learning with a Layer-Weaken Structure [4.477401614534202]
我々は,ランダムグラフ理論を実践的な意味でNNモデルに変換し,各ニューロンの入出力関係を明らかにする。
この低演算コストアプローチでは、ニューロンはいくつかのグループに割り当てられ、接続関係はそれらに属するランダムグラフの一様表現とみなすことができる。
本稿では,複数のRGNN間の情報インタラクションを含む共同分類機構を開発し,教師付き学習における3つのベンチマークタスクの大幅な性能向上を実現する。
論文 参考訳(メタデータ) (2021-11-17T03:37:06Z) - Tensor-based framework for training flexible neural networks [9.176056742068813]
本稿では,制約付き行列-テンソル因数分解(CMTF)問題を解く学習アルゴリズムを提案する。
提案アルゴリズムは、異なる基底分解を処理できる。
この手法の目的は、テンソルワーク(例えば、元のネットワークの1層または複数の層)を新しいフレキシブル層に置き換えることで、大きな事前訓練されたNNモデルを圧縮することである。
論文 参考訳(メタデータ) (2021-06-25T10:26:48Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Sparsely ensembled convolutional neural network classifiers via
reinforcement learning [0.0]
畳み込みニューラルネットワーク(CNN)は,最小動作原理にインスパイアされた目的関数で学習する。
我々はエージェントに事前学習した分類器の集合を通してイメージを知覚するように教え、その結果、動的に構成されたシステムに計算グラフを展開させたい。
実験の結果,エージェントが計算の動的(および文脈に依存した)構造を利用すると,従来のアンサンブル学習よりも優れることがわかった。
論文 参考訳(メタデータ) (2021-02-07T21:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。