論文の概要: Degree-Optimized Cumulative Polynomial Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2505.15228v1
- Date: Wed, 21 May 2025 07:59:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.210614
- Title: Degree-Optimized Cumulative Polynomial Kolmogorov-Arnold Networks
- Title(参考訳): Degree-Optimized Cumulative Polynomial Kolmogorov-Arnold Networks
- Authors: Mathew Vanherreweghe, Lirandë Pira, Patrick Rebentrost,
- Abstract要約: Kolmogorov-Arnold Network (CP-KAN) はチェビシェフ基底関数と2次非制約バイナリ最適化(QUBO)を組み合わせたニューラルネットワークである。
コントリビューションでは、次数選択問題をQUBOタスクとして再構成し、複雑性を$O($N)から1層当たりの最適化ステップに短縮する。
このアーキテクチャは、限られたデータを持つ回帰タスクにおいてよく機能し、入力スケールと自然な正規化特性を基礎として、優れた堅牢性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce cumulative polynomial Kolmogorov-Arnold networks (CP-KAN), a neural architecture combining Chebyshev polynomial basis functions and quadratic unconstrained binary optimization (QUBO). Our primary contribution involves reformulating the degree selection problem as a QUBO task, reducing the complexity from $O(D^N)$ to a single optimization step per layer. This approach enables efficient degree selection across neurons while maintaining computational tractability. The architecture performs well in regression tasks with limited data, showing good robustness to input scales and natural regularization properties from its polynomial basis. Additionally, theoretical analysis establishes connections between CP-KAN's performance and properties of financial time series. Our empirical validation across multiple domains demonstrates competitive performance compared to several traditional architectures tested, especially in scenarios where data efficiency and numerical stability are important. Our implementation, including strategies for managing computational overhead in larger networks is available in Ref.~\citep{cpkan_implementation}.
- Abstract(参考訳): 本稿では、チェビシェフ多項式基底関数と2次非拘束二元最適化(QUBO)を組み合わせたニューラルネットワークである累積多項式コルモゴロフ-アルノルドネットワーク(CP-KAN)を紹介する。
我々の主な貢献は、次数選択問題をQUBOタスクとして再構成することであり、複雑さを$O(D^N)$から1層当たりの最適化ステップに削減する。
このアプローチは、計算的トラクタビリティを維持しながら、ニューロン間の効率的な次数選択を可能にする。
このアーキテクチャは、データに制限のある回帰タスクにおいてよく機能し、入力スケールに対する堅牢性と、その多項式ベースからの自然な正規化特性を示す。
さらに、理論解析はCP-KANのパフォーマンスと金融時系列の性質の関連性を確立する。
複数のドメインにまたがる実証的な検証は、特にデータ効率と数値安定性が重要となるシナリオにおいて、テストされたいくつかの従来のアーキテクチャと比較して、競争力のある性能を示す。
大規模ネットワークにおける計算オーバーヘッドを管理する戦略を含む実装はRefで利用可能である。
~\citep{cpkan_implementation}。
関連論文リスト
- DeePoly: A High-Order Accuracy Scientific Machine Learning Framework for Function Approximation and Solving PDEs [5.483488375189695]
この研究は、Deeソリューションを2段階のアプローチに変換する新しいフレームワークを紹介します。
戦略的な組み合わせは、両方の方法の強みを利用する。
このアプローチはオープンソースプロジェクトとしても機能し、論文としても機能します。
論文 参考訳(メタデータ) (2025-06-05T04:10:52Z) - Performance Analysis of Convolutional Neural Network By Applying Unconstrained Binary Quadratic Programming [0.0]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンとビッグデータ分析において重要であるが、大規模なデータセットでトレーニングされた場合には、かなりの計算リソースを必要とする。
CNNトレーニングを高速化するために,Unconstrained Binary Quadratic Programming (UBQP) と Gradient Descent (SGD) を組み合わせたハイブリッド最適化手法を提案する。
提案手法は, BP-CNNベースラインの10-15%の精度向上を実現し, 同様の実行時間を維持する。
論文 参考訳(メタデータ) (2025-05-30T21:25:31Z) - A domain decomposition-based autoregressive deep learning model for unsteady and nonlinear partial differential equations [2.7755345520127936]
非定常・非線形偏微分方程式(PDE)を正確にモデル化するためのドメイン分割型ディープラーニング(DL)フレームワークCoMLSimを提案する。
このフレームワークは、(a)畳み込みニューラルネットワーク(CNN)ベースのオートエンコーダアーキテクチャと(b)完全に接続された層で構成される自己回帰モデルという、2つの重要なコンポーネントで構成されている。
論文 参考訳(メタデータ) (2024-08-26T17:50:47Z) - Stochastic Q-learning for Large Discrete Action Spaces [79.1700188160944]
離散的な行動空間を持つ複雑な環境では、強化学習(RL)において効果的な意思決定が重要である
我々は、$n$アクションの集合全体を最適化するのとは対照的に、おそらく$mathcalO(log(n)$)$のような変数の集合のみを考える。
提示された値ベースのRL手法には、Q-learning、StochDQN、StochDDQNなどが含まれる。
論文 参考訳(メタデータ) (2024-05-16T17:58:44Z) - Chebyshev Polynomial-Based Kolmogorov-Arnold Networks: An Efficient Architecture for Nonlinear Function Approximation [0.0]
本稿では,Chebyshev Kolmogorov-Arnoldの定理に触発された新しいニューラルネットワークアーキテクチャであるChebyshev Kolmogorov-Arnold Networkについて述べる。
ネットワークのエッジ上でChebyshevによってパラメータ化された学習可能な関数を利用することで、Chebyshev Kansは関数近似タスクの柔軟性、効率、解釈性を向上させる。
論文 参考訳(メタデータ) (2024-05-12T07:55:43Z) - Partially Stochastic Infinitely Deep Bayesian Neural Networks [0.0]
無限深層ニューラルネットワークの枠組みに部分性を統合する新しいアーキテクチャ群を提案する。
完全性の利点を含む無限深度極限における部分性の利点を利用する。
ネットワーク設計における柔軟性を提供する、さまざまなアーキテクチャ構成を提示します。
論文 参考訳(メタデータ) (2024-02-05T20:15:19Z) - Pointer Networks with Q-Learning for Combinatorial Optimization [55.2480439325792]
我々は、モデルフリーQ値ポリシー近似をPointer Networks(Ptr-Nets)と統合したハイブリッドニューラルネットワークであるPointer Q-Network(PQN)を紹介する。
実験により,本手法の有効性を実証し,不安定な環境でモデルをテストする。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - GloptiNets: Scalable Non-Convex Optimization with Certificates [61.50835040805378]
本稿では,ハイパーキューブやトーラス上のスムーズな関数を扱う証明書を用いた非キューブ最適化手法を提案する。
スペクトルの減衰に固有の対象関数の正則性を活用することにより、正確な証明を取得し、高度で強力なニューラルネットワークを活用することができる。
論文 参考訳(メタデータ) (2023-06-26T09:42:59Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Neural Spectrahedra and Semidefinite Lifts: Global Convex Optimization
of Polynomial Activation Neural Networks in Fully Polynomial-Time [31.94590517036704]
2次活性化を持つ2層数値ネットワークの完全凸最適化定式化を考案する。
本研究では,全入力データの複雑度とサンプルサイズが半定常的なニューラル・グローバル最適化であることを示した。
提案手法は, 標準バックプロパゲーション法に比べ, テスト精度が大幅に向上した。
論文 参考訳(メタデータ) (2021-01-07T08:43:01Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。