論文の概要: Kolmogorov Arnold Networks (KANs) for Imbalanced Data -- An Empirical Perspective
- arxiv url: http://arxiv.org/abs/2507.14121v1
- Date: Fri, 18 Jul 2025 17:50:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.384535
- Title: Kolmogorov Arnold Networks (KANs) for Imbalanced Data -- An Empirical Perspective
- Title(参考訳): Kolmogorov Arnold Networks (KAN) for Im Balanced Data -- 実証的視点
- Authors: Pankaj Yadav, Vivek Vijay,
- Abstract要約: Kolmogorov Arnold Networks (KAN) は、標準的なニューラルネットワークに代わる数学的基盤を提供するニューラルネットワークのアーキテクチャ上の進歩である。
本研究では,10個のベンチマークデータセットを用いて,クラス不均衡な分類の文脈におけるkansの実証評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kolmogorov Arnold Networks (KANs) are recent architectural advancement in neural computation that offer a mathematically grounded alternative to standard neural networks. This study presents an empirical evaluation of KANs in context of class imbalanced classification, using ten benchmark datasets. We observe that KANs can inherently perform well on raw imbalanced data more effectively than Multi-Layer Perceptrons (MLPs) without any resampling strategy. However, conventional imbalance strategies fundamentally conflict with KANs mathematical structure as resampling and focal loss implementations significantly degrade KANs performance, while marginally benefiting MLPs. Crucially, KANs suffer from prohibitive computational costs without proportional performance gains. Statistical validation confirms that MLPs with imbalance techniques achieve equivalence with KANs (|d| < 0.08 across metrics) at minimal resource costs. These findings reveal that KANs represent a specialized solution for raw imbalanced data where resources permit. But their severe performance-resource tradeoffs and incompatibility with standard resampling techniques currently limits practical deployment. We identify critical research priorities as developing KAN specific architectural modifications for imbalance learning, optimizing computational efficiency, and theoretical reconciling their conflict with data augmentation. This work establishes foundational insights for next generation KAN architectures in imbalanced classification scenarios.
- Abstract(参考訳): Kolmogorov Arnold Networks (KAN) は、ニューラル・コンピューティングにおける最近のアーキテクチャの進歩であり、標準的なニューラルネットワークに代わる数学的基盤を提供する。
本研究では,10個のベンチマークデータセットを用いて,クラス不均衡な分類の文脈におけるkansの実証評価を行った。
マルチ層パーセプトロン (MLP) よりも, 再サンプリング戦略を使わずに, 生の不均衡なデータに対して, 本質的に良好に処理できることが観察された。
しかし、従来の不均衡戦略は、再サンプリングと焦点損失実装によってkansのパフォーマンスが著しく低下する一方で、MLPの利益はわずかであるとして、kansの数学的構造と根本的に矛盾する。
重要な点として、カンは比例的な性能向上を伴わず、計算コストの禁止に苦しむ。
統計的検証により、不均衡技術を持つMLPが最小の資源コストでKans(|d| < 0.08)と等価であることが確認された。
これらの結果から,kansは資源が許される生の不均衡なデータの特殊な解であることがわかった。
しかし、彼らの厳しいパフォーマンスとリソースのトレードオフと、標準的なリサンプリング技術との互換性が、現在、実践的なデプロイメントを制限しています。
本研究では,不均衡学習,計算効率の最適化,データ拡張との矛盾を理論的に解決するための,感応的なアーキテクチャ修正の開発を重要研究の優先事項として挙げる。
この研究は、不均衡な分類シナリオにおける次世代のkanアーキテクチャの基礎的な洞察を確立する。
関連論文リスト
- Scientific Machine Learning with Kolmogorov-Arnold Networks [0.0]
科学機械学習の分野は、データエンコーディングにコルモゴロフ・アルノルドネットワーク(KAN)をますます採用している。
本総説では, データ駆動学習, 物理インフォームドモデリング, 深層演算子学習の3つの観点から, KAモデルにおける最近の進歩を分類する。
精度,収束度,スペクトル表現における一貫した改善を強調し,より効果的に学習しながら複雑な力学を捉えることにおけるカンスの利点を明らかにする。
論文 参考訳(メタデータ) (2025-07-30T01:26:44Z) - Enhancing Federated Learning with Kolmogorov-Arnold Networks: A Comparative Study Across Diverse Aggregation Strategies [0.24578723416255752]
Kolmogorov-Arnold Networks (KAN) は複雑な非線形関係をモデル化する有望な能力を示している。
Kansは精度、安定性、収束効率の点で、Multilayer Perceptronsを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-12T14:56:27Z) - Tuning for Trustworthiness -- Balancing Performance and Explanation Consistency in Neural Network Optimization [49.567092222782435]
我々は,異なる特徴帰属法間の合意として定義された,XAI整合性という新しい概念を紹介する。
予測性能と説明のバランスをとる多目的最適化フレームワークを構築した。
本研究は、トレードオフゾーンバランス性能損失とXAI整合性による強靭性向上のモデルについて、今後の研究基盤を提供する。
論文 参考訳(メタデータ) (2025-05-12T13:19:14Z) - HKAN: Hierarchical Kolmogorov-Arnold Network without Backpropagation [1.3812010983144802]
階層型コルモゴロフ・アルノルドネットワーク(Hierarchical Kolmogorov-Arnold Network、HKAN)は、最近提案されたコルモゴロフ・アルノルドネットワーク(KAN)に代わる新しいネットワークアーキテクチャである。
HKANはランダムな学習手法を採用し、基底関数のパラメータを固定し、最小二乗回帰を用いて線形集約を最適化する。
実証的な結果から、HKANは様々な回帰タスクにまたがって、カンに対して優れた精度と安定性を提供すると同時に、変数の重要性に関する洞察を提供する。
論文 参考訳(メタデータ) (2025-01-30T08:44:54Z) - Kolmogorov-Arnold Network Autoencoders [0.0]
Kolmogorov-Arnold Networks (KAN)はMulti-Layer Perceptrons (MLP)に代わる有望な代替品である。
カンはコルモゴロフ・アルノルドの表現定理と密接に一致し、モデル精度と解釈可能性の両方を高める可能性がある。
この結果から,kanベースのオートエンコーダは復元精度の点で競争力を発揮することが示された。
論文 参考訳(メタデータ) (2024-10-02T22:56:00Z) - A preliminary study on continual learning in computer vision using Kolmogorov-Arnold Networks [43.70716358136333]
Kolmogorov-Networks (KAN) は基本的に異なる数学的枠組みに基づいている。
Kansは継続的学習シナリオの忘れなど,いくつかの大きな問題に対処している。
コンピュータビジョンにおける連続的な学習課題における感性の評価によって調査を拡大する。
論文 参考訳(メタデータ) (2024-09-20T14:49:21Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Stochastic Optimization of Areas Under Precision-Recall Curves with
Provable Convergence [66.83161885378192]
ROC(AUROC)と精度リコール曲線(AUPRC)の下の領域は、不均衡問題に対する分類性能を評価するための一般的な指標である。
本稿では,深層学習のためのAUPRCの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:22:21Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。