論文の概要: Representation Stability in a Minimal Continual Learning Agent
- arxiv url: http://arxiv.org/abs/2602.19655v1
- Date: Mon, 23 Feb 2026 09:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.760122
- Title: Representation Stability in a Minimal Continual Learning Agent
- Title(参考訳): 最小連続学習エージェントにおける表現安定性
- Authors: Vishnu Subramanian,
- Abstract要約: アーキテクチャの複雑さと最適化目標から表現力学を分離するために設計された最小限の連続学習エージェントについて検討する。
連続正規化状態ベクトル間のコサイン類似性を用いて表現変化を定量化し、時間間隔で安定度を定義する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning systems are increasingly deployed in environments where retraining or reset is infeasible, yet many approaches emphasize task performance rather than the evolution of internal representations over time. In this work, we study a minimal continual learning agent designed to isolate representational dynamics from architectural complexity and optimization objectives. The agent maintains a persistent state vector across executions and incrementally updates it as new textual data is introduced. We quantify representational change using cosine similarity between successive normalized state vectors and define a stability metric over time intervals. Longitudinal experiments across eight executions reveal a transition from an initial plastic regime to a stable representational regime under consistent input. A deliberately introduced semantic perturbation produces a bounded decrease in similarity, followed by recovery and restabilization under subsequent coherent input. These results demonstrate that meaningful stability plasticity tradeoffs can emerge in a minimal, stateful learning system without explicit regularization, replay, or architectural complexity. The work establishes a transparent empirical baseline for studying representational accumulation and adaptation in continual learning systems.
- Abstract(参考訳): 継続的学習システムは、リトレーニングやリセットが不可能な環境にますます展開されているが、多くのアプローチでは、時間とともに内部表現の進化よりもタスクパフォーマンスを強調している。
本研究では,アーキテクチャの複雑さと最適化目標から表現力学を分離する最小限の連続学習エージェントについて検討する。
エージェントは実行中に永続的な状態ベクトルを保持し、新しいテキストデータが導入されると徐々に更新する。
連続正規化状態ベクトル間のコサイン類似性を用いて表現変化を定量化し、時間間隔で安定度を定義する。
8回にわたる縦断実験により、初期プラスチック状態から安定な表現状態への一貫した入力による遷移が明らかとなった。
意図的に導入された意味摂動は類似性の限界を減少させ、その後コヒーレント入力の下で回復と再安定化をもたらす。
これらの結果は、意味のある安定性の可塑性トレードオフが、明示的な正規化、リプレイ、アーキテクチャの複雑さなしに、最小限のステートフルな学習システムに現れることを示した。
この研究は、連続学習システムにおける表現的蓄積と適応を研究するための透明な経験的ベースラインを確立する。
関連論文リスト
- Bridging Information Asymmetry: A Hierarchical Framework for Deterministic Blind Face Restoration [31.878334664450776]
セマンティックロジックと連続的なテクスチャ生成を統合した階層型フレームワークである textbfPrefRestore を提案する。
本手法は,2つの相補的戦略により,この情報格差を根本的に解決する。
Pref-Restoreは、合成および実世界のベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-27T11:50:31Z) - Provable Benefit of Curriculum in Transformer Tree-Reasoning Post-Training [76.12556589212666]
学習後のカリキュラムは指数関数的複雑性のボトルネックを回避していることを示す。
結果のみの報酬信号の下では、強化学習の微調整は、サンプルの複雑さを高い精度で達成する。
カリキュラムを意識したクエリにより、報奨託書の呼び出しとサンプリングコストの両方を指数関数的に削減するテストタイムスケーリングの保証を確立する。
論文 参考訳(メタデータ) (2025-11-10T18:29:54Z) - Drift No More? Context Equilibria in Multi-Turn LLM Interactions [58.69551510148673]
コンテキストドリフト(Contexts drift)とは、ターン間のゴール一貫性のある振る舞いからモデルが出力する出力の段階的なばらつきである。
シングルターンエラーとは異なり、ドリフトは時間的に展開し、静的な評価指標では捉えにくい。
マルチターンドリフトは、避けられない崩壊というよりも、制御可能な平衡現象として理解できることを示す。
論文 参考訳(メタデータ) (2025-10-09T04:48:49Z) - Unsupervised Online 3D Instance Segmentation with Synthetic Sequences and Dynamic Loss [52.28880405119483]
教師なしのオンライン3Dインスタンスのセグメンテーションは、基本的だが難しい課題だ。
UNITのような既存の手法はこの方向に進んできたが、訓練の多様性が制限されているままである。
本稿では,合成点雲列生成によるトレーニング分布の強化を目的とした新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-27T08:53:27Z) - Activation Function Design Sustains Plasticity in Continual Learning [1.618563064839635]
継続的な学習では、モデルは適応する能力を失う可能性がある。
可塑性損失を軽減するため, アクティベーション選択はアーキテクチャに依存しない主要なレバーであることを示す。
論文 参考訳(メタデータ) (2025-09-26T16:41:47Z) - Structured Transformations for Stable and Interpretable Neural Computation [1.2064681974642195]
我々は、標準の非拘束アフィンパラダイムから逸脱する層レベルの変換の再構成を導入する。
我々の定式化は内部の整合性を促進し、奥行きの安定した情報フローをサポートする。
これらの構造変換を用いて構築されたモデルは、勾配条件の改善、摂動に対する感度の低減、層幅の堅牢性を示す。
論文 参考訳(メタデータ) (2025-07-31T19:26:45Z) - Continual Learning in Vision-Language Models via Aligned Model Merging [84.47520899851557]
塑性を保ちながら安定性を維持するために,モデルマージに基づく新しい視点を提案する。
マージプロセスの有効性を最大化するために,従来のものと一致した重みの学習を促進するシンプルなメカニズムを提案する。
論文 参考訳(メタデータ) (2025-05-30T20:52:21Z) - Intensity Profile Projection: A Framework for Continuous-Time
Representation Learning for Dynamic Networks [50.2033914945157]
本稿では、連続時間動的ネットワークデータのための表現学習フレームワークIntensity Profile Projectionを提案する。
このフレームワークは3つの段階から構成される: 対の強度関数を推定し、強度再構成誤差の概念を最小化する射影を学習する。
さらに、推定軌跡の誤差を厳密に制御する推定理論を開発し、その表現がノイズに敏感な追従解析に利用できることを示す。
論文 参考訳(メタデータ) (2023-06-09T15:38:25Z) - Continual evaluation for lifelong learning: Identifying the stability
gap [35.99653845083381]
我々は、新しいタスクの学習を始める際に、一般的な最先端の手法のセットを忘れることに苦しむことを示す。
興味深いが潜在的に問題となる現象を安定性ギャップと呼ぶ。
我々は,各項目評価を用いた連続評価のためのフレームワークを構築し,最悪の場合のパフォーマンスを定量化するための新しい指標セットを定義する。
論文 参考訳(メタデータ) (2022-05-26T15:56:08Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。