論文の概要: Dynamic Nested Hierarchies: Pioneering Self-Evolution in Machine Learning Architectures for Lifelong Intelligence
- arxiv url: http://arxiv.org/abs/2511.14823v1
- Date: Tue, 18 Nov 2025 15:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.482818
- Title: Dynamic Nested Hierarchies: Pioneering Self-Evolution in Machine Learning Architectures for Lifelong Intelligence
- Title(参考訳): 動的ネステッド階層 - 生涯的インテリジェンスのための機械学習アーキテクチャにおける自己進化のパイオニア化
- Authors: Akbar Anbar Jafari, Cagri Ozcinar, Gholamreza Anbarjafari,
- Abstract要約: この研究は、人工知能と機械学習を進化させる次の進化ステップとして、動的ネスト階層を提案する。
動的ネスト階層は、モデルに最適化レベルの数、ネスト構造を自律的に調整し、トレーニングや推論中に頻度を更新する権限を与える。
この革新は、既存のモデルにおける無秩序な記憶に対処し、コンテキストフローを動的に圧縮し、分布シフトに適応することによって、真の生涯学習を促進する。
- 参考スコア(独自算出の注目度): 1.932555230783329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contemporary machine learning models, including large language models, exhibit remarkable capabilities in static tasks yet falter in non-stationary environments due to rigid architectures that hinder continual adaptation and lifelong learning. Building upon the nested learning paradigm, which decomposes models into multi-level optimization problems with fixed update frequencies, this work proposes dynamic nested hierarchies as the next evolutionary step in advancing artificial intelligence and machine learning. Dynamic nested hierarchies empower models to autonomously adjust the number of optimization levels, their nesting structures, and update frequencies during training or inference, inspired by neuroplasticity to enable self-evolution without predefined constraints. This innovation addresses the anterograde amnesia in existing models, facilitating true lifelong learning by dynamically compressing context flows and adapting to distribution shifts. Through rigorous mathematical formulations, theoretical proofs of convergence, expressivity bounds, and sublinear regret in varying regimes, alongside empirical demonstrations of superior performance in language modeling, continual learning, and long-context reasoning, dynamic nested hierarchies establish a foundational advancement toward adaptive, general-purpose intelligence.
- Abstract(参考訳): 大規模言語モデルを含む現代の機械学習モデルは、連続的な適応や生涯学習を妨げる厳密なアーキテクチャのため、静止しない環境では静的タスクにおいて顕著な能力を示す。
固定更新頻度でモデルをマルチレベル最適化問題に分解するネスト学習パラダイムに基づいて、この研究は、人工知能と機械学習を進化させる次の進化ステップとして、動的ネスト階層を提案する。
動的ネスト付き階層は、事前定義された制約なしに自己進化を可能にするために、モデルに神経可塑性にインスパイアされた、最適化レベルの数、ネスト構造、トレーニングまたは推論中の頻度の更新を自律的に調整する権限を与える。
この革新は、既存のモデルにおける無秩序な記憶に対処し、コンテキストフローを動的に圧縮し、分布シフトに適応することによって、真の生涯学習を促進する。
厳密な数学的定式化、収束の理論的証明、表現性境界、様々な体制におけるサブ線形後悔、言語モデリング、連続学習、長期文脈推論における優れたパフォーマンスの実証的な実証などを通じて、動的にネストされた階層は適応的で汎用的な知性に対する基礎的な進歩を確立している。
関連論文リスト
- Rethinking the Role of Dynamic Sparse Training for Scalable Deep Reinforcement Learning [58.533203990515034]
ニューラルネットワークのスケーリングは機械学習における画期的な進歩をもたらしたが、このパラダイムは深層強化学習(DRL)では失敗している。
我々は、動的スパーストレーニング戦略が、アーキテクチャの改善によって確立された主要なスケーラビリティ基盤を補完するモジュール固有の利点を提供することを示す。
アーキテクチャ改善の利点を生かした実践的なフレームワークであるModule-Specific Training (MST) にこれらの知見を精査し、アルゴリズムの修正なしに様々なRLアルゴリズムをまたいだ大幅なスケーラビリティ向上を示す。
論文 参考訳(メタデータ) (2025-10-14T03:03:08Z) - Continual Learning for Generative AI: From LLMs to MLLMs and Beyond [56.29231194002407]
本稿では,主流生成型AIモデルに対する連続学習手法の総合的な調査を行う。
これらのアプローチをアーキテクチャベース、正規化ベース、リプレイベースという3つのパラダイムに分類する。
我々は、トレーニング目標、ベンチマーク、コアバックボーンを含む、異なる生成モデルに対する連続的な学習設定を分析する。
論文 参考訳(メタデータ) (2025-06-16T02:27:25Z) - Stable Attractors for Neural networks classification via Ordinary Differential Equations (SA-nODE) [0.9786690381850358]
プリオリは、予め割り当てられた固定安定なアトラクタのセットに対応するように構成されている。
分類を行う固有の能力は、ターゲットの安定なアトラクションのそれぞれに関連するアトラクションの形状の盆地に反映される。
この手法は最先端のディープラーニングアルゴリズムの性能には達しないが、解析的相互作用項を閉じた連続力学系が高性能な分類器として機能することを示す。
論文 参考訳(メタデータ) (2023-11-17T08:30:41Z) - Learning spatio-temporal patterns with Neural Cellular Automata [0.0]
我々はNAAを訓練し、時系列画像とPDE軌道から複雑な力学を学ぶ。
我々はNCAを拡張し、同じシステム内の過渡構造と安定構造の両方を捕捉する。
任意のダイナミクスを学べることによって、NAAはデータ駆動モデリングフレームワークとして大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-10-23T11:16:32Z) - Incorporating Neuro-Inspired Adaptability for Continual Learning in
Artificial Intelligence [59.11038175596807]
継続的な学習は、現実世界に強い適応性を持つ人工知能を強化することを目的としている。
既存の進歩は主に、破滅的な忘れを克服するために記憶安定性を維持することに焦点を当てている。
本稿では,学習の可塑性を改善するため,パラメータ分布の古い記憶を適切に減衰させる汎用的手法を提案する。
論文 参考訳(メタデータ) (2023-08-29T02:43:58Z) - Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics [6.829711787905569]
本稿では,時系列データの非定常および非線形の複雑なダイナミクスを表現した新しい分解力学系モデルを提案する。
我々のモデルは辞書学習によって訓練され、最近の結果を利用してスパースベクトルを時間とともに追跡する。
連続時間と離散時間の両方の指導例において、我々のモデルは元のシステムによく近似できることを示した。
論文 参考訳(メタデータ) (2022-06-07T02:25:38Z) - S2RMs: Spatially Structured Recurrent Modules [105.0377129434636]
モジュール構造とテンポラル構造の両方を同時に活用できる動的構造を利用するための一歩を踏み出します。
我々のモデルは利用可能なビューの数に対して堅牢であり、追加のトレーニングなしで新しいタスクに一般化できる。
論文 参考訳(メタデータ) (2020-07-13T17:44:30Z) - Learning Stable Deep Dynamics Models [91.90131512825504]
状態空間全体にわたって安定することが保証される力学系を学習するためのアプローチを提案する。
このような学習システムは、単純な力学系をモデル化することができ、複雑な力学を学習するために追加の深層生成モデルと組み合わせることができることを示す。
論文 参考訳(メタデータ) (2020-01-17T00:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。