論文の概要: Relating Piecewise Linear Kolmogorov Arnold Networks to ReLU Networks
- arxiv url: http://arxiv.org/abs/2503.01702v1
- Date: Mon, 03 Mar 2025 16:15:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:22:54.471836
- Title: Relating Piecewise Linear Kolmogorov Arnold Networks to ReLU Networks
- Title(参考訳): 線形コルモゴロフ・アーノルドネットワークとReLUネットワークの関係
- Authors: Nandi Schoots, Mattia Jacopo Villani, Niels uit de Bos,
- Abstract要約: Kolmogorov-Arnold Networksは、次元の呪いを克服し、解釈可能性のメリットを持つ、ニューラルネットワークアーキテクチャの新しいファミリーである。
- 参考スコア(独自算出の注目度): 0.6749750044497732
- License:
- Abstract: Kolmogorov-Arnold Networks are a new family of neural network architectures which holds promise for overcoming the curse of dimensionality and has interpretability benefits (arXiv:2404.19756). In this paper, we explore the connection between Kolmogorov Arnold Networks (KANs) with piecewise linear (univariate real) functions and ReLU networks. We provide completely explicit constructions to convert a piecewise linear KAN into a ReLU network and vice versa.
- Abstract(参考訳): Kolmogorov-Arnold Networksは、次元の呪いを克服し、解釈可能性の利点(arXiv:2404.19756)を持つニューラルネットワークアーキテクチャの新しいファミリーである。
本稿では,KAN(Kolmogorov Arnold Networks)と一括線形(単変数実数)関数とReLUネットワークの関係について検討する。
完全明快な構成を提供し、片方向線形kan を ReLU ネットワークに変換する。
関連論文リスト
- KAT to KANs: A Review of Kolmogorov-Arnold Networks and the Neural Leap Forward [0.0]
Kolmogorov-Arnold Networksは次元の呪いの影響を受けないとして注目を集めている。
本稿では,コルモゴロフ・アルノルド表現定理と,コルモゴロフ・アルノルドネットワークの基礎となる数学的原理について考察する。
論文 参考訳(メタデータ) (2024-11-15T23:02:26Z) - Convolutional Kolmogorov-Arnold Networks [41.94295877935867]
我々はConvolutional Kolmogorov-Arnold Networks (Convolutional Kans)を紹介する。
本稿では,Fashion-MNISTデータセットにまたがる従来のアーキテクチャに対して,Convolutional Kansの性能を実証的に検証する。
実験の結果、Kan Convolutionsはカーネル毎に学習し、コンピュータビジョンのためのディープラーニングの新たな視野を開くことが示されている。
論文 参考訳(メタデータ) (2024-06-19T02:09:44Z) - Generalization of Scaled Deep ResNets in the Mean-Field Regime [55.77054255101667]
無限深度および広帯域ニューラルネットワークの限界におけるエンスケールResNetについて検討する。
この結果から,遅延学習体制を超えた深層ResNetの一般化能力に関する新たな知見が得られた。
論文 参考訳(メタデータ) (2024-03-14T21:48:00Z) - The Geometric Structure of Fully-Connected ReLU Layers [0.0]
ニューラルネットワークにおいて,$d$次元の完全連結ReLU層の幾何学構造を定式化し,解釈する。
このようなネットワークによって生成される決定境界の幾何学的複雑さに関する結果を提供するとともに、アフィン変換を変調することで、そのようなネットワークは$d$の異なる決定境界しか生成できないことを示す。
論文 参考訳(メタデータ) (2023-10-05T11:54:07Z) - From NeurODEs to AutoencODEs: a mean-field control framework for
width-varying Neural Networks [68.8204255655161]
本稿では,動的に駆動する制御フィールドをベースとした,AutoencODEと呼ばれる新しいタイプの連続時間制御システムを提案する。
損失関数が局所凸な領域では,多くのアーキテクチャが復元可能であることを示す。
論文 参考訳(メタデータ) (2023-07-05T13:26:17Z) - Deep Learning without Shortcuts: Shaping the Kernel with Tailored
Rectifiers [83.74380713308605]
我々は、ReLUの変種であるLeaky ReLUsと完全に互換性のある新しいタイプの変換を開発する。
実験では,ResNetsと競合する深層バニラネットワークによる検証精度を考慮し,計算コストを考慮しない手法を提案する。
論文 参考訳(メタデータ) (2022-03-15T17:49:08Z) - Approximation Properties of Deep ReLU CNNs [8.74591882131599]
本稿では,2次元空間上での深部ReLU畳み込みニューラルネットワーク(CNN)の近似特性について述べる。
この分析は、大きな空間サイズとマルチチャネルを持つ畳み込みカーネルの分解定理に基づいている。
論文 参考訳(メタデータ) (2021-09-01T05:16:11Z) - Learning Autonomy in Management of Wireless Random Networks [102.02142856863563]
本稿では,任意の数のランダム接続ノードを持つ無線ネットワークにおいて,分散最適化タスクに取り組む機械学習戦略を提案する。
我々は,ネットワークトポロジとは無関係に,前方および後方に計算を行う分散メッセージパスニューラルネットワーク(DMPNN)と呼ばれる,柔軟な深層ニューラルネットワーク形式を開発した。
論文 参考訳(メタデータ) (2021-06-15T09:03:28Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。