論文の概要: Input Convex Kolmogorov Arnold Networks
- arxiv url: http://arxiv.org/abs/2505.21208v1
- Date: Tue, 27 May 2025 13:56:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.69067
- Title: Input Convex Kolmogorov Arnold Networks
- Title(参考訳): 入力凸コルモゴロフ・アーノルドネットワーク
- Authors: Thomas Deschatre, Xavier Warin,
- Abstract要約: 本稿では,コルモゴロフ・アルノルドネットワーク(ICKAN)を用いた入力凸ニューラルネットワークアーキテクチャを提案する。
2つの特定のネットワークが提示される: 1つは低次線型部分、関数の表現、そして普遍近似定理である。
我々は、これらのネットワークが古典的な入力凸ニューラルネットワーク(ICNN)と競合する単純なテストについて示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article presents an input convex neural network architecture using Kolmogorov-Arnold networks (ICKAN). Two specific networks are presented: the first is based on a low-order, linear-by-part, representation of functions, and a universal approximation theorem is provided. The second is based on cubic splines, for which only numerical results support convergence. We demonstrate on simple tests that these networks perform competitively with classical input convex neural networks (ICNNs). In a second part, we use the networks to solve some optimal transport problems needing a convex approximation of functions and demonstrate their effectiveness. Comparisons with ICNNs show that cubic ICKANs produce results similar to those of classical ICNNs.
- Abstract(参考訳): 本稿では,コルモゴロフ・アルノルドネットワーク(ICKAN)を用いた入力凸ニューラルネットワークアーキテクチャを提案する。
2つの特定のネットワークが提示される: 1つは低次線型分割、関数の表現、および普遍近似定理である。
2つ目は立方体のスプラインに基づいており、数値的な結果だけが収束をサポートする。
我々はこれらのネットワークが古典的入力凸ニューラルネットワーク(ICNN)と競合して動作することを示す。
第2部では,関数の凸近似を必要とする最適輸送問題をネットワークを用いて解決し,その有効性を示す。
ICNNと比較すると、立方体ICKANは古典的ICNNと同様の結果をもたらす。
関連論文リスト
- Convexity in ReLU Neural Networks: beyond ICNNs? [17.01649106055384]
1階層のReLUネットワークで実装された凸関数はすべて、同じアーキテクチャのICNNで表現可能であることを示す。
また,多数のアフィン領域を持つReLUニューラルネットワークに対して,正確な凸性チェックを可能にする数値計算手法を提案する。
論文 参考訳(メタデータ) (2025-01-06T13:53:59Z) - GINN-KAN: Interpretability pipelining with applications in Physics Informed Neural Networks [5.2969467015867915]
本稿では,解釈可能性パイプラインの概念を導入し,複数の解釈可能性技術を導入し,各手法の精度を向上する。
我々は、標準的なニューラルネットワークアーキテクチャに解釈可能性を導入する可能性のために選択された2つの最近のモデルを評価する。
両モデルの利点を合成する新しい解釈可能なニューラルネットワークGINN-KANを提案する。
論文 参考訳(メタデータ) (2024-08-27T04:57:53Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Continuous approximation by convolutional neural networks with a
sigmoidal function [0.0]
我々は、非重複CNNと呼ばれる畳み込みニューラルネットワーク(CNN)のクラスを提示する。
このようなシグミカルアクティベーション関数を持つネットワークは任意の精度でコンパクトな入力集合上で定義された任意の連続関数を近似できることを示す。
論文 参考訳(メタデータ) (2022-09-27T12:31:36Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - UCNN: A Convolutional Strategy on Unstructured Mesh [1.871055320062469]
流体力学の機械学習では、フルコネクテッドニューラルネットワーク(FNN)はモデリングのローカル機能のみを使用します。
非構造畳み込みニューラルネットワーク(UCNN)が提案され、重み関数を通じて近隣ノードの特徴を集約し、効果的に活用する。
その結果,UCNNはモデリング過程においてより正確であることが示唆された。
論文 参考訳(メタデータ) (2021-01-12T10:48:25Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。