論文の概要: TabKAN: Advancing Tabular Data Analysis using Kolmograv-Arnold Network
- arxiv url: http://arxiv.org/abs/2504.06559v1
- Date: Wed, 09 Apr 2025 03:46:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:05:47.669103
- Title: TabKAN: Advancing Tabular Data Analysis using Kolmograv-Arnold Network
- Title(参考訳): TabKan: Kolmograv-Arnold Network を用いた語彙データ分析の高速化
- Authors: Ali Eslamian, Alireza Afzal Aghaei, Qiang Cheng,
- Abstract要約: 本稿では,Kolmogorov-Arnold Networks (KANs) を用いた表型データモデリングを支援する新しいフレームワークであるTabKANを紹介する。
Kansはエッジ上で学習可能なアクティベーション機能を活用し、解釈可能性とトレーニング効率を向上する。
さまざまな公開データセットの広範なベンチマークを通じて、TabKANは教師付き学習において優れたパフォーマンスを示しながら、トランスファー学習シナリオにおける古典的およびトランスフォーマーベースのモデルを大幅に上回っている。
- 参考スコア(独自算出の注目度): 11.664880068737084
- License:
- Abstract: Tabular data analysis presents unique challenges due to its heterogeneous feature types, missing values, and complex interactions. While traditional machine learning methods, such as gradient boosting, often outperform deep learning approaches, recent advancements in neural architectures offer promising alternatives. This paper introduces TabKAN, a novel framework that advances tabular data modeling using Kolmogorov-Arnold Networks (KANs). Unlike conventional deep learning models, KANs leverage learnable activation functions on edges, enhancing both interpretability and training efficiency. Our contributions include: (1) the introduction of modular KAN-based architectures tailored for tabular data analysis, (2) the development of a transfer learning framework for KAN models, enabling effective knowledge transfer between domains, (3) the development of model-specific interpretability for tabular data learning, reducing reliance on post hoc and model-agnostic analysis, and (4) comprehensive evaluation of vanilla supervised learning across binary and multi-class classification tasks. Through extensive benchmarking on diverse public datasets, TabKAN demonstrates superior performance in supervised learning while significantly outperforming classical and Transformer-based models in transfer learning scenarios. Our findings highlight the advantage of KAN-based architectures in efficiently transferring knowledge across domains, bridging the gap between traditional machine learning and deep learning for structured data.
- Abstract(参考訳): タブラルデータ分析は、その不均一な特徴タイプ、欠落値、複雑な相互作用によって、ユニークな課題を提示する。
勾配向上などの従来の機械学習手法は、ディープラーニングアプローチよりも優れていることが多いが、最近のニューラルアーキテクチャの進歩は、有望な代替手段を提供する。
本稿では,Kolmogorov-Arnold Networks (KANs) を用いた表型データモデリングを支援する新しいフレームワークであるTabKANを紹介する。
従来のディープラーニングモデルとは異なり、Kansはエッジ上で学習可能なアクティベーション機能を活用し、解釈可能性とトレーニング効率を向上させる。
提案する貢献は,(1)表層データ解析に適したモジュール型KANアーキテクチャの導入,(2)ドメイン間の効果的な知識伝達を可能にするKankanモデルのための伝達学習フレームワークの開発,(3)表層データ学習のためのモデル固有解釈性の開発,2)表層・モデル非依存分析への依存の低減,(4)二項・複数分類タスク間のバニラ教師あり学習の包括的評価である。
さまざまな公開データセットの広範なベンチマークを通じて、TabKANは教師付き学習において優れたパフォーマンスを示しながら、トランスファー学習シナリオにおける古典的およびトランスフォーマーベースのモデルを大幅に上回っている。
この結果は,ドメイン間の知識を効率的に伝達し,従来の機械学習と構造化データのディープラーニングのギャップを埋めることにおいて,kanベースのアーキテクチャの利点を浮き彫りにしている。
関連論文リスト
- An Active Learning Framework for Inclusive Generation by Large Language Models [32.16984263644299]
大規模言語モデル(LLM)は、多様なサブ集団を表すテキストを生成する。
本稿では,知識蒸留により強化されたクラスタリングに基づくアクティブラーニングフレームワークを提案する。
2つの新しいデータセットをモデルトレーニングと組み合わせて構築し、ベースラインモデルよりも2%-10%の性能向上を示した。
論文 参考訳(メタデータ) (2024-10-17T15:09:35Z) - Transformers with Stochastic Competition for Tabular Data Modelling [6.285325771390289]
本稿では,表型データに特化して設計された新しいディープラーニングモデルを提案する。
このモデルは、広く使用されており、公開されているさまざまなデータセットで検証されている。
これらの要素を組み込むことで、我々のモデルは高い性能が得られることを実証する。
論文 参考訳(メタデータ) (2024-07-18T07:48:48Z) - Revisiting Nearest Neighbor for Tabular Data: A Deep Tabular Baseline Two Decades Later [76.66498833720411]
K$-nearest neighbors (KNN) はもともと,インスタンス間のセマンティックな類似性を捉えるために線形投影を学習するために設計されたものだ。
意外なことに、SGDを用いたNAAの実装と次元減少のない実装は、表データの良好な性能をすでに達成しています。
本稿では、損失関数、予測戦略、深いアーキテクチャなど、これらの改善の背景にある要因を分析して、論文を締めくくる。
論文 参考訳(メタデータ) (2024-07-03T16:38:57Z) - Is Deep Learning finally better than Decision Trees on Tabular Data? [19.657605376506357]
タブラルデータは、多くの現実世界のアプリケーションでその汎用性と使いやすさのために、ユビキタスなデータモダリティである。
データに関する最近の研究は、この領域におけるニューラルネットワークの限界についてユニークな視点を提供する。
本研究は、その基礎となる学習パラダイムに基づいて、10の最先端モデルを分類する。
論文 参考訳(メタデータ) (2024-02-06T12:59:02Z) - Homological Convolutional Neural Networks [4.615338063719135]
本稿では,トポロジ的に制約されたネットワーク表現を通じて,データ構造構造を利用した新しいディープラーニングアーキテクチャを提案する。
5つの古典的な機械学習モデルと3つのディープラーニングモデルに対して、18のベンチマークデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2023-08-26T08:48:51Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。