論文の概要: KAN-Dreamer: Benchmarking Kolmogorov-Arnold Networks as Function Approximators in World Models
- arxiv url: http://arxiv.org/abs/2512.07437v1
- Date: Mon, 08 Dec 2025 11:13:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.85595
- Title: KAN-Dreamer: Benchmarking Kolmogorov-Arnold Networks as Function Approximators in World Models
- Title(参考訳): Kan-Dreamer:世界モデルにおける関数近似器としてのコルモゴロフ・アルノルドネットワークのベンチマーク
- Authors: Chenwei Shi, Xueyu Luan,
- Abstract要約: Kolmogorov-Arnold Networks (KAN) は、MLP(Multi-Arnold Perceptrons)に代わる有望な代替品として登場した。
本報告は,kan-based world modelの今後の発展に向けた予備研究である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: DreamerV3 is a state-of-the-art online model-based reinforcement learning (MBRL) algorithm known for remarkable sample efficiency. Concurrently, Kolmogorov-Arnold Networks (KANs) have emerged as a promising alternative to Multi-Layer Perceptrons (MLPs), offering superior parameter efficiency and interpretability. To mitigate KANs' computational overhead, variants like FastKAN leverage Radial Basis Functions (RBFs) to accelerate inference. In this work, we investigate integrating KAN architectures into the DreamerV3 framework. We introduce KAN-Dreamer, replacing specific MLP and convolutional components of DreamerV3 with KAN and FastKAN layers. To ensure efficiency within the JAX-based World Model, we implement a tailored, fully vectorized version with simplified grid management. We structure our investigation into three subsystems: Visual Perception, Latent Prediction, and Behavior Learning. Empirical evaluations on the DeepMind Control Suite (walker_walk) analyze sample efficiency, training time, and asymptotic performance. Experimental results demonstrate that utilizing our adapted FastKAN as a drop-in replacement for the Reward and Continue predictors yields performance on par with the original MLP-based architecture, maintaining parity in both sample efficiency and training speed. This report serves as a preliminary study for future developments in KAN-based world models.
- Abstract(参考訳): DreamerV3は最先端のオンラインモデルベース強化学習(MBRL)アルゴリズムである。
同時に、Kolmogorov-Arnold Networks (KAN) はMulti-Layer Perceptrons (MLP) の代替として登場し、優れたパラメータ効率と解釈可能性を提供している。
Kansの計算オーバーヘッドを軽減するため、FastKANのような変種はRadial Basis Functions(RBF)を活用して推論を高速化する。
本研究では,kanアーキテクチャをDreamerV3フレームワークに統合することを検討する。
我々はkan-Dreamerを導入し、DreamerV3の特定のMLPおよび畳み込みコンポーネントをkanおよびFastKAN層に置き換える。
JAXベースのWorld Model内で効率性を確保するため、単純化されたグリッド管理を備えた、カスタマイズされた完全にベクトル化されたバージョンを実装します。
本稿では,視覚知覚,潜在予測,行動学習の3つのサブシステムについて検討する。
DeepMind Control Suite(walker_walk)の実証評価は、サンプル効率、トレーニング時間、漸近性能を分析した。
実験結果から,適応型FastKANをReward and Continue予測器のドロップイン代替として利用することにより,従来のMLPアーキテクチャと同等の性能を示し,サンプル効率とトレーニング速度の両面で同等性を維持した。
本報告は,kan-based world modelの今後の発展に向けた予備研究である。
関連論文リスト
- Dual-Stream Diffusion for World-Model Augmented Vision-Language-Action Model [62.889356203346985]
本稿では,モダリティ競合を処理する世界モデル拡張VLAフレームワークである Dual-STream diffusion (DUST) を提案する。
DUSTは標準のVLAベースラインと暗黙のワールドモデリングメソッドよりも最大6%向上する。
Franka Research 3による実世界のタスクでは、DUSTは成功率のベースラインを13%上回っている。
論文 参考訳(メタデータ) (2025-10-31T16:32:12Z) - KANMixer: Can KAN Serve as a New Modeling Core for Long-term Time Series Forecasting? [17.96421618979159]
我々は,kanの適応能力を完全に活用したマルチスケール混合バックボーンを統合した簡潔なアーキテクチャであるkanMixerを紹介する。
そこで,KanMixerは7つのベンチマークデータセットに対して,28実験のうち16実験で最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2025-08-03T04:03:13Z) - Exploring Kolmogorov-Arnold Networks for Interpretable Time Series Classification [4.489167091323233]
Kolmogorov-Arnold Networks (KAN) はディープラーニングの代替として提案されている。
本稿では,UCRベンチマークアーカイブから117個のデータセットを用いた時系列分類のためのkanアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-22T13:01:36Z) - KFD-NeRF: Rethinking Dynamic NeRF with Kalman Filter [49.85369344101118]
KFD-NeRFは,Kalmanフィルタに基づく効率的かつ高品質な運動再構成フレームワークと統合された,新しい動的ニューラル放射場である。
我々のキーとなる考え方は、動的放射場を、観測と予測という2つの知識源に基づいて時間的に異なる状態が推定される動的システムとしてモデル化することである。
我々のKFD-NeRFは、同等の計算時間と最先端の視線合成性能で、徹底的な訓練を施した類似または優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-18T05:48:24Z) - Enhancing Fast Feed Forward Networks with Load Balancing and a Master Leaf Node [49.08777822540483]
高速フィードフォワードネットワーク(FFF)は、入力空間の異なる領域が広いネットワークのニューロンの異なるサブセットを活性化する観察を利用する。
本稿では,FFFアーキテクチャにロードバランシングとマスタリーフ技術を導入し,性能向上とトレーニングプロセスの簡素化を図る。
論文 参考訳(メタデータ) (2024-05-27T05:06:24Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。