論文の概要: Recurrent Expansion: A Pathway Toward the Next Generation of Deep Learning
- arxiv url: http://arxiv.org/abs/2507.08828v1
- Date: Fri, 04 Jul 2025 19:26:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-20 22:54:22.099991
- Title: Recurrent Expansion: A Pathway Toward the Next Generation of Deep Learning
- Title(参考訳): Recurrent Expansion: 次世代のディープラーニングへの道
- Authors: Tarek Berghout,
- Abstract要約: Recurrent Expansion (RE)は、従来の機械学習(ML)とディープラーニング(DL)を超えて進化する新しい学習パラダイムである。
REは、同一のディープアーキテクチャによるデータの複数のマッピングを強調し、内部表現(フィーチャーマップ)を損失などの観測されたパフォーマンス信号とともに分析する。
スケーラブルで適応的な変種であるSc-HMVREは、現実世界のデプロイメントに選択的なメカニズムとスケールの多様性を導入している。
- 参考スコア(独自算出の注目度): 0.26107298043931204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces Recurrent Expansion (RE) as a new learning paradigm that advances beyond conventional Machine Learning (ML) and Deep Learning (DL). While DL focuses on learning from static data representations, RE proposes an additional dimension: learning from the evolving behavior of models themselves. RE emphasizes multiple mappings of data through identical deep architectures and analyzes their internal representations (i.e., feature maps) in conjunction with observed performance signals such as loss. By incorporating these behavioral traces, RE enables iterative self-improvement, allowing each model version to gain insight from its predecessors. The framework is extended through Multiverse RE (MVRE), which aggregates signals from parallel model instances, and further through Heterogeneous MVRE (HMVRE), where models of varying architectures contribute diverse perspectives. A scalable and adaptive variant, Sc-HMVRE, introduces selective mechanisms and scale diversity for real-world deployment. Altogether, RE presents a shift in DL: from purely representational learning to behavior-aware, self-evolving systems. It lays the groundwork for a new class of intelligent models capable of reasoning over their own learning dynamics, offering a path toward scalable, introspective, and adaptive artificial intelligence. A simple code example to support beginners in running their own experiments is provided in Code Availability Section of this paper.
- Abstract(参考訳): 本稿では,従来の機械学習(ML)やディープラーニング(DL)を超越した新たな学習パラダイムとして,Recurrent Expansion(RE)を紹介する。
DLは静的データ表現から学ぶことに焦点を当てているが、REはモデル自体の進化する振る舞いから学ぶという追加の次元を提案する。
REは、同一のディープアーキテクチャによるデータの複数のマッピングを強調し、内部表現(フィーチャーマップ)を損失などの観測されたパフォーマンス信号とともに分析する。
これらの行動トレースを組み込むことで、REは反復的な自己改善を可能にし、各モデルバージョンは前者から洞察を得ることができる。
このフレームワークは、並列モデルインスタンスからの信号を集約するMultiverse RE (MVRE) を通じて拡張され、さらに異種MVRE (HMVRE) を通じて拡張される。
スケーラブルで適応的な変種であるSc-HMVREは、現実世界のデプロイメントに選択的なメカニズムとスケールの多様性を導入している。
REは、純粋に表現型学習から行動認識の自己進化システムへと、DLのシフトを示す。
それは、自身の学習力学を推論し、スケーラブルで内省的で適応的な人工知能への道筋を提供する、新しいクラスのインテリジェントモデルの基礎を築いた。
本論文のコードアベイラビリティーセクションでは、初心者が独自の実験を行う際の簡単なコード例を提供している。
関連論文リスト
- From Generation to Generalization: Emergent Few-Shot Learning in Video Diffusion Models [65.0487600936788]
ビデオ拡散モデル(VDM)は高品質なコンテンツを合成できる強力な生成ツールとして登場した。
我々は、VDMが自然に構造化された表現を探索し、視覚世界を暗黙的に理解することを主張する。
提案手法は,各タスクを視覚遷移に変換し,短い入力シーケンス上でLoRA重みのトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-06-08T20:52:34Z) - Exploring Training and Inference Scaling Laws in Generative Retrieval [50.82554729023865]
生成検索は、検索を自己回帰生成タスクとして再構成し、大きな言語モデルがクエリから直接ターゲット文書を生成する。
生成的検索におけるトレーニングと推論のスケーリング法則を体系的に検討し,モデルのサイズ,トレーニングデータスケール,推論時間計算が協調的に性能に与える影響について検討した。
論文 参考訳(メタデータ) (2025-03-24T17:59:03Z) - Analyzing Fine-tuning Representation Shift for Multimodal LLMs Steering alignment [53.90425382758605]
モデルの内部構造が微調整によってどのように変化し、新しいマルチモーダルタスクを専門化するかを示す。
我々の研究は、微調整によってマルチモーダル表現がどのように進化するかに光を当て、マルチモーダルタスクにおけるモデル適応を解釈するための新しい視点を提供する。
論文 参考訳(メタデータ) (2025-01-06T13:37:13Z) - State-space models can learn in-context by gradient descent [1.3087858009942543]
状態空間モデルは、勾配に基づく学習を実行し、変換器と全く同じ方法で、文脈内学習に使用することができることを示す。
具体的には、1つの構造化状態空間モデル層が乗算入力と出力ゲーティングで拡張され、暗黙線形モデルの出力を再現できることを証明した。
また、状態空間モデルと線形自己意識の関係と、文脈内で学習する能力に関する新たな知見を提供する。
論文 参考訳(メタデータ) (2024-10-15T15:22:38Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - RePo: Resilient Model-Based Reinforcement Learning by Regularizing
Posterior Predictability [25.943330238941602]
本稿では,視覚モデルに基づくRL法を提案する。
我々の訓練目的は、表現が力学と報酬を最大限に予測することを奨励する。
我々の取り組みは、モデルベースのRLを動的で多様なドメインのための実用的で有用なツールにするためのステップです。
論文 参考訳(メタデータ) (2023-08-31T18:43:04Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - Constructing Effective Machine Learning Models for the Sciences: A
Multidisciplinary Perspective [77.53142165205281]
線形回帰モデルに変数間の変換や相互作用を手動で追加することで、非線形解が必ずしも改善されないことを示す。
データ駆動モデルを構築する前にこれを認識する方法や、そのような分析が本質的に解釈可能な回帰モデルへの移行にどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2022-11-21T17:48:44Z) - Learning Variational Data Assimilation Models and Solvers [34.22350850350653]
データ同化のためのエンドツーエンドニューラルネットワークアーキテクチャを導入する。
提案するエンドツーエンド学習アーキテクチャの重要な特徴は、教師なし戦略と教師なし戦略の両方を用いてNNモデルをトレーニングできることである。
論文 参考訳(メタデータ) (2020-07-25T14:28:48Z) - A Convolutional Deep Markov Model for Unsupervised Speech Representation
Learning [32.59760685342343]
確率的潜在変数モデルは、音声からの言語表現学習のための自己教師付き学習アプローチの代替を提供する。
本研究では,深いニューラルネットワークによってモデル化された非線形放出と遷移関数を持つガウス状態空間モデルであるConvDMMを提案する。
大規模音声データセット(LibriSpeech)で訓練すると、ConvDMMは複数の自己教師付き特徴抽出法よりもはるかに優れた特徴を生成する。
論文 参考訳(メタデータ) (2020-06-03T21:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。