論文の概要: Automatic Grid Updates for Kolmogorov-Arnold Networks using Layer Histograms
- arxiv url: http://arxiv.org/abs/2511.08570v1
- Date: Wed, 12 Nov 2025 02:05:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.869173
- Title: Automatic Grid Updates for Kolmogorov-Arnold Networks using Layer Histograms
- Title(参考訳): 層ヒストグラムを用いたコルモゴロフ・アルノルドネットワークの自動グリッド更新
- Authors: Jamison Moody, James Usevitch,
- Abstract要約: Kolmogorov-Arnold Networks (KAN)は、近年の論文で注目を集めているニューラルネットワークのクラスである。
Kansはパラメータ化された訓練可能なアクティベーション関数を活用し、解釈可能性の向上やシンボル方程式の学習精度の向上など、いくつかの利点を提供している。
- 参考スコア(独自算出の注目度): 0.6445605125467574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kolmogorov-Arnold Networks (KANs) are a class of neural networks that have received increased attention in recent literature. In contrast to MLPs, KANs leverage parameterized, trainable activation functions and offer several benefits including improved interpretability and higher accuracy on learning symbolic equations. However, the original KAN architecture requires adjustments to the domain discretization of the network (called the "domain grid") during training, creating extra overhead for the user in the training process. Typical KAN layers are not designed with the ability to autonomously update their domains in a data-driven manner informed by the changing output ranges of previous layers. As an added benefit, this histogram algorithm may also be applied towards detecting out-of-distribution (OOD) inputs in a variety of settings. We demonstrate that AdaptKAN exceeds or matches the performance of prior KAN architectures and MLPs on four different tasks: learning scientific equations from the Feynman dataset, image classification from frozen features, learning a control Lyapunov function, and detecting OOD inputs on the OpenOOD v1.5 benchmark.
- Abstract(参考訳): Kolmogorov-Arnold Networks (KAN)は、近年の論文で注目を集めているニューラルネットワークのクラスである。
MLPとは対照的に、kansはパラメータ化され訓練可能なアクティベーション関数を利用し、解釈可能性の向上や学習記号方程式の高精度化など、いくつかの利点を提供している。
しかし、元々のkanアーキテクチャでは、トレーニング中にネットワークのドメインの離散化("ドメイングリッド"と呼ばれる)を調整する必要があるため、トレーニングプロセスにおいてユーザが余分なオーバーヘッドを発生させる。
典型的なkanレイヤは、以前のレイヤの出力範囲の変化にインシデントされたデータ駆動型の方法で、ドメインを自律的に更新する機能を持って設計されていない。
さらなる利点として、このヒストグラムアルゴリズムは様々な設定でOOD(out-of-distriion)インプットの検出にも適用できる。
本稿では,Fynmanデータセットから科学方程式を学習し,凍結した特徴から画像分類を行い,リアプノフ関数を学習し,OpenOOD v1.5ベンチマークでOOD入力を検出する4つのタスクにおいて,AdaptKANが従来のkanアーキテクチャとMPPの性能を上回るか,あるいは一致していることを示す。
関連論文リスト
- Kolmogorov Arnold Network Autoencoder in Medicine [1.9662978733004604]
最近の研究はKAN(Kolmogorov Arnold Networks)と呼ばれる新しいアーキテクチャを導入し、ニューラルネットワークのエッジに学習可能なアクティベーション関数を配置することで、複数のシナリオのパフォーマンスが向上したことを報告している。
本研究の目的は,複数バージョンのバニラAE(線形・畳み込み・変分法など)を,同じあるいは少ないパラメータを持つコルモゴロフ・アルノルドの値と比較することである。
心電図をモデル入力として, 再建, 生成, 復調, 着色, 異常検出の5種類の古典的AEタスクについて検討した。
論文 参考訳(メタデータ) (2025-07-19T06:50:50Z) - Neural Reasoning Networks: Efficient Interpretable Neural Networks With Automatic Textual Explanations [45.974930902038494]
本稿では,新しいニューラルシンボリックアーキテクチャであるニューラル推論ネットワーク(NRN)を提案する。
トレーニングアルゴリズム(R-NRN)は、バックプロップによる降下最適化を用いて、通常通りネットワークの重みを学習するが、また、帯域ベース最適化を用いてネットワーク構造自体を学習する。
R-NRNの説明は、比較したアプローチよりも短いが、より正確な特徴重要度スコアを生成する。
論文 参考訳(メタデータ) (2024-10-10T14:27:12Z) - Kolmogorov-Arnold Network Autoencoders [0.0]
Kolmogorov-Arnold Networks (KAN)はMulti-Layer Perceptrons (MLP)に代わる有望な代替品である。
カンはコルモゴロフ・アルノルドの表現定理と密接に一致し、モデル精度と解釈可能性の両方を高める可能性がある。
この結果から,kanベースのオートエンコーダは復元精度の点で競争力を発揮することが示された。
論文 参考訳(メタデータ) (2024-10-02T22:56:00Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Efficient Model Adaptation for Continual Learning at the Edge [15.334881190102895]
ほとんどの機械学習(ML)システムは、トレーニングとデプロイメントの間、定常的で一致したデータ分散を前提としている。
データ分布は、環境要因、センサー特性、タスク・オブ・関心などの変化により、時間とともに変化することが多い。
本稿では,ドメインシフト下での効率的な連続学習のためのアダプタ・リコンフィグレータ(EAR)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T23:55:17Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。