論文の概要: Redundancy-as-Masking: Formalizing the Artificial Age Score (AAS) to Model Memory Aging in Generative AI
- arxiv url: http://arxiv.org/abs/2510.01242v1
- Date: Wed, 24 Sep 2025 02:18:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.746014
- Title: Redundancy-as-Masking: Formalizing the Artificial Age Score (AAS) to Model Memory Aging in Generative AI
- Title(参考訳): 冗長性とマスキング - 人工年齢スコア(AAS)を生成型AIのモデルメモリエイジングに形式化する
- Authors: Seyma Yaman Kayadibi,
- Abstract要約: 人工知能は、時系列ではなく、記憶性能における構造的対称性を通して年齢が観察される。
この現象を捉えるため、AAS(Artificial Age Score)はログスケールのエントロピーインフォームドメトリックとして導入されている。
AASは、穏やかでモデルに依存しない仮定の下で、明確に定義され、境界付けられ、単調であることが証明されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence is observed to age not through chronological time but through structural asymmetries in memory performance. In large language models, semantic cues such as the name of the day often remain stable across sessions, while episodic details like the sequential progression of experiment numbers tend to collapse when conversational context is reset. To capture this phenomenon, the Artificial Age Score (AAS) is introduced as a log-scaled, entropy-informed metric of memory aging derived from observable recall behavior. The score is formally proven to be well-defined, bounded, and monotonic under mild and model-agnostic assumptions, making it applicable across various tasks and domains. In its Redundancy-as-Masking formulation, the score interprets redundancy as overlapping information that reduces the penalized mass. However, in the present study, redundancy is not explicitly estimated; all reported values assume a redundancy-neutral setting (R = 0), yielding conservative upper bounds. The AAS framework was tested over a 25-day bilingual study involving ChatGPT-5, structured into stateless and persistent interaction phases. During persistent sessions, the model consistently recalled both semantic and episodic details, driving the AAS toward its theoretical minimum, indicative of structural youth. In contrast, when sessions were reset, the model preserved semantic consistency but failed to maintain episodic continuity, causing a sharp increase in the AAS and signaling structural memory aging. These findings support the utility of AAS as a theoretically grounded, task-independent diagnostic tool for evaluating memory degradation in artificial systems. The study builds on foundational concepts from von Neumann's work on automata, Shannon's theories of information and redundancy, and Turing's behavioral approach to intelligence.
- Abstract(参考訳): 人工知能は、時系列ではなく、記憶性能における構造的対称性を通して年齢が観察される。
大規模な言語モデルでは、その日の名前のような意味的な手がかりはセッション間で安定し、実験数の逐次進行のようなエピソード的な詳細は会話の文脈がリセットされると崩壊する傾向がある。
この現象を捉えるために、AAS(Artificial Age Score)は、観測可能なリコール動作から引き起こされたメモリ老化のログスケール、エントロピーインフォームドメトリックとして導入された。
このスコアは、穏やかでモデルに依存しない仮定の下で、明確に定義され、有界で、単調であることが正式に証明され、様々なタスクや領域に適用できる。
冗長性(Redundancy-as-Masking)の定式化において、スコアは冗長性を重なり合う情報として解釈し、ペナル化質量を減少させる。
しかし、本研究では、冗長性は明確に見積もられておらず、全ての報告された値は冗長性ニュートラルな設定(R = 0)を仮定し、保守的な上限をもたらす。
AASフレームワークはChatGPT-5を含む25日間のバイリンガル研究でテストされた。
永続的なセッションの間、モデルはセマンティックとエピソードの両方の詳細を常にリコールし、AASは構造的若さを示す理論上の最小限の方向に向かった。
対照的に、セッションがリセットされると、モデルはセマンティックな一貫性を維持したが、エピソジックな連続性を維持することができず、AASの急激な増加と構造記憶の老化をシグナルとして引き起こした。
これらの知見は, 人工システムにおけるメモリ劣化を評価するための, 理論的に根拠のないタスク非依存診断ツールとしてのAASの有用性を裏付けるものである。
この研究は、フォン・ノイマンのオートマトンの研究、シャノンの情報と冗長性の理論、チューリングの知性に対する行動的アプローチから基礎的概念を導いた。
関連論文リスト
- Cyclic Ablation: Testing Concept Localization against Functional Regeneration in AI [0.0]
中心的な問題は、偽りのような望ましくない振る舞いが、削除できる局所関数であるかどうかである。
本研究は,スパースオートエンコーダ,ターゲットアブレーション,対人訓練を組み合わせることで,偽装の概念を排除しようと試みた。
局所化仮説とは裏腹に, 偽装は非常に弾力性があることが判明した。
論文 参考訳(メタデータ) (2025-09-23T23:16:11Z) - Beyond Turing: Memory-Amortized Inference as a Foundation for Cognitive Computation [5.234742752529437]
本稿では,メモリの潜時サイクル上での認識を推論としてモデル化する形式的フレームワークとして,メモリ記憶推論(MAI)を紹介した。
我々は,MAIがMountcastleのUniversal Cortical Algorithmの基本的な基盤を提供することを示す。
人工知能の実現にMAIが与える深い影響について,簡潔に論じる。
論文 参考訳(メタデータ) (2025-08-19T15:10:26Z) - The Other Mind: How Language Models Exhibit Human Temporal Cognition [9.509386631514122]
大規模言語モデル(LLM)は、訓練データで直接特定されていない人間のものと類似した認知パターンを示す。
大規模モデルは自発的に主観的時間的基準点を確立し、ウェーバー・フェヒナー法則に従う。
事前学習した埋め込みモデルを用いて,トレーニングコーパス自体に固有の非線形時間構造があることを発見した。
論文 参考訳(メタデータ) (2025-07-21T17:59:01Z) - Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - Are we certain it's anomalous? [57.729669157989235]
時系列における異常検出は、高度に非線形な時間的相関のため、異常は稀であるため、複雑なタスクである。
本稿では,異常検出(HypAD)におけるハイパボリック不確実性の新しい利用法を提案する。
HypADは自己指導で入力信号を再構築する。
論文 参考訳(メタデータ) (2022-11-16T21:31:39Z) - A Cognitive Architecture for Machine Consciousness and Artificial Superintelligence: Thought Is Structured by the Iterative Updating of Working Memory [0.0]
本稿では、コンピュータ内での人間的な思考プロセスのシミュレートのための分析フレームワークを提供する。
注意と記憶がどのように構造化され、更新され、思考ストリームへの連想的な追加を探すために利用されるかを記述する。
論文 参考訳(メタデータ) (2022-03-29T22:28:30Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。