論文の概要: Fibonacci-Driven Recursive Ensembles: Algorithms, Convergence, and Learning Dynamics
- arxiv url: http://arxiv.org/abs/2601.01055v1
- Date: Sat, 03 Jan 2026 03:21:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.977651
- Title: Fibonacci-Driven Recursive Ensembles: Algorithms, Convergence, and Learning Dynamics
- Title(参考訳): フィボナッチ駆動の帰納的アンサンブル:アルゴリズム、収束、学習ダイナミクス
- Authors: Ernest Fokoué,
- Abstract要約: フィボナッチ型更新フローは,記憶と学習のダイナミクスを誘導し,新たな残余情報に適応しながら過去の構造を統合できることを示す。
我々は、大域収束条件、スペクトル安定性基準、および非漸近一般化境界を確立する。
その結果は、フィボナッチ重み付け(Fibonacci weighting)から幾何重み付け理論(Geoge weighting theory)を経て、完全にダイナミックなアンサンブル学習システムへと移行した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper develops the algorithmic and dynamical foundations of recursive ensemble learning driven by Fibonacci-type update flows. In contrast with classical boosting Freund and Schapire (1997); Friedman (2001), where the ensemble evolves through first-order additive updates, we study second-order recursive architectures in which each predictor depends on its two immediate predecessors. These Fibonacci flows induce a learning dynamic with memory, allowing ensembles to integrate past structure while adapting to new residual information. We introduce a general family of recursive weight-update algorithms encompassing Fibonacci, tribonacci, and higher-order recursions, together with continuous-time limits that yield systems of differential equations governing ensemble evolution. We establish global convergence conditions, spectral stability criteria, and non-asymptotic generalization bounds under Rademacher Bartlett and Mendelson (2002) and algorithmic stability analyses. The resulting theory unifies recursive ensembles, structured weighting, and dynamical systems viewpoints in statistical learning. Experiments with kernel ridge regression Rasmussen and Williams (2006), spline smoothers Wahba (1990), and random Fourier feature models Rahimi and Recht (2007) demonstrate that recursive flows consistently improve approximation and generalization beyond static weighting. These results complete the trilogy begun in Papers I and II: from Fibonacci weighting, through geometric weighting theory, to fully dynamical recursive ensemble learning systems.
- Abstract(参考訳): 本稿では,フィボナッチ型更新フローに駆動される再帰的アンサンブル学習のアルゴリズム的および動的基礎を開発する。
Freund and Schapire (1997); Friedman (2001) とは対照的に、このアンサンブルは一階加法的更新によって進化する。
これらのフィボナッチフローは記憶と学習のダイナミクスを誘導し、アンサンブルは新しい残余情報に適応しながら過去の構造を統合することができる。
本研究では、フィボナッチ、トリボナッチ、高次再帰を含む再帰的重み付けアルゴリズムの一般ファミリーと、アンサンブル進化を規定する微分方程式の系を生成する連続時間制限を導入する。
我々は、Rademacher Bartlett と Mendelson (2002) の下で、大域収束条件、スペクトル安定性基準、および非漸近一般化境界を確立し、アルゴリズム的安定性解析を行う。
結果として得られる理論は、統計学習における再帰的アンサンブル、構造化重み付け、力学系の視点を統一する。
カーネルリッジ回帰 Rasmussen and Williams (2006), spline smoothers Wahba (1990), and random Fourier feature model Rahimi and Recht (2007) による実験では、再帰フローは静的重み付けを超えた近似と一般化を一貫して改善することを示した。
これらの結果は、フィボナッチ重み付け(Fibonacci weighting)から幾何重み付け理論(Geoge weighting theory)を経て、完全に動的に再帰的なアンサンブル学習システムへと移行した。
関連論文リスト
- A General Weighting Theory for Ensemble Learning: Beyond Variance Reduction via Spectral and Geometric Structure [0.0]
本稿では,アンサンブル学習のための一般的な重み付け理論を開発する。
我々は、仮説空間に作用する線型作用素としてアンサンブルを定式化する。
非一様構造重みが平均値よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-12-25T08:51:01Z) - On Fibonacci Ensembles: An Alternative Approach to Ensemble Learning Inspired by the Timeless Architecture of the Golden Ratio [0.0]
EmphFibonacci Ensemblesは、数学的に原理化されたが哲学的に着想を得たアンサンブル学習フレームワークである。
フィボナッチのアンサンブルは、より広範なアンサンブル学習の理論の中で自然で解釈可能な設計点を形成する。
論文 参考訳(メタデータ) (2025-12-25T07:05:47Z) - Proximal Approximate Inference in State-Space Models [11.340424368313606]
非線形・非ガウス状態空間モデルにおける状態推定のためのアルゴリズムのクラスを示す。
提案手法は, ベイズ推定をエントロピー的信頼領域更新の系列として用いたラグランジアン定式化に基づく。
論文 参考訳(メタデータ) (2025-11-19T13:06:08Z) - Sequential-Parallel Duality in Prefix Scannable Models [68.39855814099997]
近年では Gated Linear Attention (GLA) や Mamba など様々なモデルが開発されている。
ニアコンスタント時間並列評価と線形時間、定数空間シーケンシャル推論をサポートするニューラルネットワークモデルの全クラスを特徴付けることができるだろうか?
論文 参考訳(メタデータ) (2025-06-12T17:32:02Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - The Dynamics of Riemannian Robbins-Monro Algorithms [101.29301565229265]
本稿では,Robins と Monro のセミナル近似フレームワークを一般化し拡張するリーマンアルゴリズムの族を提案する。
ユークリッドのそれと比較すると、リーマンのアルゴリズムは多様体上の大域線型構造が欠如しているため、はるかに理解されていない。
ユークリッド・ロビンス=モンロスキームの既存の理論を反映し拡張するほぼ確実な収束結果の一般的なテンプレートを提供する。
論文 参考訳(メタデータ) (2022-06-14T12:30:11Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。