論文の概要: Opening the Black-Box: Symbolic Regression with Kolmogorov-Arnold Networks for Energy Applications
- arxiv url: http://arxiv.org/abs/2504.03913v1
- Date: Fri, 04 Apr 2025 20:23:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:13:41.921865
- Title: Opening the Black-Box: Symbolic Regression with Kolmogorov-Arnold Networks for Energy Applications
- Title(参考訳): ブラックボックスのオープン:エネルギー応用のためのコルモゴロフ・アルノルドネットワークによるシンボリック回帰
- Authors: Nataly R. Panczyk, Omer F. Erdem, Majdi I. Radaideh,
- Abstract要約: この研究は、伝統的なフィードフォワードニューラルネットワーク(FNN)とKAN(Kolmogorov-Arnold Network)を比較する。
精度の面では、出力次元が制限された場合、すべてのデータセットに匹敵するkanとFNNが見つかる。
訓練後にシンボリック方程式に変換されるカンは、FNNがブラックボックスのままである間に完全に解釈可能なモデルを生成する。
- 参考スコア(独自算出の注目度): 0.44241702149260353
- License:
- Abstract: While most modern machine learning methods offer speed and accuracy, few promise interpretability or explainability -- two key features necessary for highly sensitive industries, like medicine, finance, and engineering. Using eight datasets representative of one especially sensitive industry, nuclear power, this work compares a traditional feedforward neural network (FNN) to a Kolmogorov-Arnold Network (KAN). We consider not only model performance and accuracy, but also interpretability through model architecture and explainability through a post-hoc SHAP analysis. In terms of accuracy, we find KANs and FNNs comparable across all datasets, when output dimensionality is limited. KANs, which transform into symbolic equations after training, yield perfectly interpretable models while FNNs remain black-boxes. Finally, using the post-hoc explainability results from Kernel SHAP, we find that KANs learn real, physical relations from experimental data, while FNNs simply produce statistically accurate results. Overall, this analysis finds KANs a promising alternative to traditional machine learning methods, particularly in applications requiring both accuracy and comprehensibility.
- Abstract(参考訳): 現代の機械学習の手法は、スピードと正確性を提供するが、解釈可能性や説明可能性はほとんどない。
この研究は、特にセンシティブな産業である原子力の8つのデータセットを用いて、従来のフィードフォワードニューラルネットワーク(FNN)とKAN(Kolmogorov-Arnold Network)を比較した。
我々は、モデルの性能と精度だけでなく、モデルアーキテクチャや説明可能性を通しての解釈可能性も、ポストホックなSHAP分析によって検討する。
精度の面では、出力次元が制限された場合、すべてのデータセットに匹敵するkanとFNNが見つかる。
訓練後にシンボリック方程式に変換されるカンは、FNNがブラックボックスのままである間に完全に解釈可能なモデルを生成する。
最後に、Kernel SHAPによるポストホックな説明可能性の結果を用いて、カンは実験データから実際の物理関係を学習し、FNNは統計的に正確な結果を生成する。
全体として、この分析は、特に正確性と理解性の両方を必要とするアプリケーションにおいて、Kansが従来の機械学習手法に代わる有望な選択肢であることを示している。
関連論文リスト
- GINN-KAN: Interpretability pipelining with applications in Physics Informed Neural Networks [5.2969467015867915]
本稿では,解釈可能性パイプラインの概念を導入し,複数の解釈可能性技術を導入し,各手法の精度を向上する。
我々は、標準的なニューラルネットワークアーキテクチャに解釈可能性を導入する可能性のために選択された2つの最近のモデルを評価する。
両モデルの利点を合成する新しい解釈可能なニューラルネットワークGINN-KANを提案する。
論文 参考訳(メタデータ) (2024-08-27T04:57:53Z) - Physics Informed Kolmogorov-Arnold Neural Networks for Dynamical Analysis via Efficent-KAN and WAV-KAN [0.12045539806824918]
物理インフォームド・コルモゴロフ・アルノルドニューラルネットワーク(PIKAN)を効率的なKANとWAV-KANにより実装する。
PIKANは従来のディープニューラルネットワークよりも優れた性能を示し、少ないレイヤで同じレベルの精度を実現し、計算オーバーヘッドを低減している。
論文 参考訳(メタデータ) (2024-07-25T20:14:58Z) - Bayesian Entropy Neural Networks for Physics-Aware Prediction [14.705526856205454]
本稿では,ベイズニューラルネットワーク(BNN)の予測に制約を加えるためのフレームワークであるBENNを紹介する。
ベンは予測値だけでなく、その微分や分散を制約し、より堅牢で信頼性の高いモデル出力を保証できる。
その結果、従来のBNNよりも大幅に改善され、現代の制約されたディープラーニング手法と比較して競争性能が向上した。
論文 参考訳(メタデータ) (2024-07-01T07:00:44Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - MGDCF: Distance Learning via Markov Graph Diffusion for Neural
Collaborative Filtering [96.65234340724237]
現状のGNNベースCFモデルとコンテキスト符号化に基づく従来の1層NRLモデルとの等価性を示す。
マルコフグラフ拡散協調フィルタ (MGDCF) を用いて, 最先端のGNNベースCFモデルを一般化する。
論文 参考訳(メタデータ) (2022-04-05T17:24:32Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Adaptive Explainable Neural Networks (AxNNs) [8.949704905866888]
我々は、予測性能とモデル解釈可能性の両目標を達成するために、Adaptive Explainable Neural Networks (AxNN) と呼ばれる新しいフレームワークを開発した。
予測性能向上のために,一般化された付加的モデルネットワークと付加的インデックスモデルからなる構造化ニューラルネットワークを構築した。
本稿では,AxNNの結果を主効果と高次相互作用効果に分解する方法を示す。
論文 参考訳(メタデータ) (2020-04-05T23:40:57Z) - A deep learning framework for solution and discovery in solid mechanics [1.4699455652461721]
本稿では,物理情報ニューラルネットワーク(PINN)と呼ばれるディープラーニングのクラスを,固体力学の学習と発見に応用する。
本稿では, 運動量バランスと弾性の関係をPINNに組み込む方法について解説し, 線形弾性への応用について詳細に検討する。
論文 参考訳(メタデータ) (2020-02-14T08:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。