論文の概要: DualFlexKAN: Dual-stage Kolmogorov-Arnold Networks with Independent Function Control
- arxiv url: http://arxiv.org/abs/2603.08583v1
- Date: Mon, 09 Mar 2026 16:36:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.498603
- Title: DualFlexKAN: Dual-stage Kolmogorov-Arnold Networks with Independent Function Control
- Title(参考訳): DualFlexKAN:独立機能制御によるデュアルステージKolmogorov-Arnoldネットワーク
- Authors: Andrés Ortiz, Nicolás J. Gallego-Molina, Carmen Jiménez-Mesa, Juan M. Górriz, Javier Ramírez,
- Abstract要約: Kolmogorov-Arnold Networks (KAN) はこの制限をエッジ中心の学習可能な関数によって解決している。
Kanはパラメータスケーリングとアーキテクチャの剛性に悩まされており、標準正規化技術の効果的な統合を妨げる。
本稿では,DualFlexKAN(DFKAN)について紹介する。DualFlexKAN(DFKAN)は,先線形入力変換と後線形出力を独立に制御するデュアルステージ機構を備えたフレキシブルアーキテクチャである。
- 参考スコア(独自算出の注目度): 2.071516130824992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Layer Perceptrons (MLPs) rely on pre-defined, fixed activation functions, imposing a static inductive bias that forces the network to approximate complex topologies solely through increased depth and width. Kolmogorov-Arnold Networks (KANs) address this limitation through edge-centric learnable functions, yet their formulation suffers from quadratic parameter scaling and architectural rigidity that hinders the effective integration of standard regularization techniques. This paper introduces the DualFlexKAN (DFKAN), a flexible architecture featuring a dual-stage mechanism that independently controls pre-linear input transformations and post-linear output activations. This decoupling enables hybrid networks that optimize the trade-off between expressiveness and computational cost. Unlike standard formulations, DFKAN supports diverse basis function families, including orthogonal polynomials, B-splines, and radial basis functions, integrated with configurable regularization strategies that stabilize training dynamics. Comprehensive evaluations across regression benchmarks, physics-informed tasks, and function approximation demonstrate that DFKAN outperforms both MLPs and conventional KANs in accuracy, convergence speed, and gradient fidelity. The proposed hybrid configurations achieve superior performance with one to two orders of magnitude fewer parameters than standard KANs, effectively mitigating the parameter explosion problem while preserving KAN-style expressiveness. DFKAN provides a principled, scalable framework for incorporating adaptive non-linearities, proving particularly advantageous for data-efficient learning and interpretable function discovery in scientific applications.
- Abstract(参考訳): MLP(Multi-Layer Perceptrons)は事前に定義された固定活性化関数に依存しており、ネットワークの深さと幅を増大させることで複雑な位相を近似させる静的誘導バイアスを与える。
Kolmogorov-Arnold Networks (KAN) は、エッジ中心の学習可能な関数によるこの制限に対処するが、それらの定式化は2次パラメータのスケーリングと、標準正規化技法の効果的な統合を妨げる構造的剛性に悩まされる。
本稿では,DualFlexKAN(DFKAN)について紹介する。DualFlexKAN(DFKAN)は,線形前入力変換と線形後出力アクティベーションを独立に制御するデュアルステージ機構を備えたフレキシブルアーキテクチャである。
この分離により、表現性と計算コストのトレードオフを最適化するハイブリッドネットワークが実現される。
標準定式化とは異なり、DFKANは直交多項式、B-スプライン、ラジアル基底関数を含む多様な基底関数群をサポートし、トレーニング力学を安定化する構成可能な正規化戦略と統合する。
回帰ベンチマーク、物理インフォームドタスク、関数近似の総合的な評価は、DFKANがMLPと従来のKANの両方を精度、収束速度、勾配忠実度で上回っていることを示している。
提案したハイブリッド構成は,標準KANよりも1~2桁少ないパラメータで優れた性能を実現し,kan型表現性を維持しつつ,パラメータの爆発問題を効果的に軽減する。
DFKANは、適応的な非線形性を導入するための原則付きスケーラブルなフレームワークを提供し、特に科学的応用におけるデータ効率の学習と解釈可能な関数発見に有利であることを示す。
関連論文リスト
- Free-RBF-KAN: Kolmogorov-Arnold Networks with Adaptive Radial Basis Functions for Efficient Function Learning [2.2851922041620587]
Kolmogorov-Arnold Networks (KANs) は複素非線形関数を効率的に近似する強いポテンシャルを示している。
元の Kan の定式化は B-スプライン基底関数に依存しており、デボアのアルゴリズムによる計算オーバーヘッドがかなり大きい。
この性能ギャップを埋めるために適応学習格子とトレーニング可能な滑らかさを組み込んだRBFベースのkanアーキテクチャであるFree-RBF-KANを提案する。
論文 参考訳(メタデータ) (2026-01-12T17:45:31Z) - Parallel Diffusion Solver via Residual Dirichlet Policy Optimization [88.7827307535107]
拡散モデル(DM)は、最先端の生成性能を達成したが、シーケンシャルなデノナイジング特性のため、高いサンプリング遅延に悩まされている。
既存のソルバベースの加速度法では、低次元の予算で画像品質が著しく低下することが多い。
本研究では,各ステップに複数の勾配並列評価を組み込んだ新しいODE解法であるEnsemble Parallel Directionsolvr(EPD-EPr)を提案する。
論文 参考訳(メタデータ) (2025-12-28T05:48:55Z) - From Coefficients to Directions: Rethinking Model Merging with Directional Alignment [66.99062575537555]
パラメータと特徴空間の両面に一貫した方向構造を整列する,方向アライメント付きemphMerging(method)という統一幾何学的枠組みを導入する。
分析の結果、指向性アライメントは構造的コヒーレンスを改善し、ベンチマーク、モデルスケール、タスク構成にまたがる広範な実験により、我々のアプローチの有効性がさらに検証された。
論文 参考訳(メタデータ) (2025-11-29T08:40:58Z) - Fast State-Augmented Learning for Wireless Resource Allocation with Dual Variable Regression [83.27791109672927]
本稿では,資源割当ポリシに対する状態拡張グラフニューラルネットワーク(GNN)のパラメトリゼーションが,ユビキタスな二段階的手法の欠点を回避する方法を示す。
ラグランジアンによる国家拡張政策の最大化は、オフライントレーニングフェーズ中に学習される。
収束結果と指数確率は、双対函数(有限値)最適性ギャップの剰余に縛られることを証明する。
論文 参考訳(メタデータ) (2025-06-23T15:20:58Z) - DeePoly: A High-Order Accuracy Scientific Machine Learning Framework for Function Approximation and Solving PDEs [5.483488375189695]
この研究は、Deeソリューションを2段階のアプローチに変換する新しいフレームワークを紹介します。
戦略的な組み合わせは、両方の方法の強みを利用する。
このアプローチはオープンソースプロジェクトとしても機能し、論文としても機能します。
論文 参考訳(メタデータ) (2025-06-05T04:10:52Z) - Stochastic Primal-Dual Double Block-Coordinate for Two-way Partial AUC Maximization [45.99743804547533]
2方向部分AUCAUCは、不均衡なデータを持つバイナリ分類における重要な性能指標である。
TPAUC最適化のための既存のアルゴリズムは未探索のままである。
TPAUC最適化のための2つの革新的な二重座標ブロック座標アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-05-28T03:55:05Z) - Incorporating Arbitrary Matrix Group Equivariance into KANs [69.30866522377694]
Kolmogorov-Arnold Networks (KAN) は科学分野で大きな成功を収めている。
本研究では,Equivariant Kolmogorov-Arnold Networks (EKAN)を提案する。
論文 参考訳(メタデータ) (2024-10-01T06:34:58Z) - Random Features Approximation for Control-Affine Systems [6.067043299145924]
制御アフィン構造をキャプチャする非線形特徴表現の2つの新しいクラスを提案する。
提案手法はランダムな特徴(RF)近似を用いて,より少ない計算コストでカーネル手法の表現性を継承する。
論文 参考訳(メタデータ) (2024-06-10T17:54:57Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。