論文の概要: Teleodynamic Learning a new Paradigm For Interpretable AI
- arxiv url: http://arxiv.org/abs/2603.11355v1
- Date: Wed, 11 Mar 2026 22:43:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.702932
- Title: Teleodynamic Learning a new Paradigm For Interpretable AI
- Title(参考訳): 解釈可能なAIのための新しいパラダイムをテレダイナミックに学習する
- Authors: Enrique ter Horst, Juan Diego Zambrano,
- Abstract要約: 我々は、学習が固定目的ではない機械学習の新しいパラダイムであるTeleodynamic Learningを紹介した。
この枠組みは生物系に触発され、知能を3つの量の複合進化として扱う。
本研究では,スペンサー・ブラウンの形式法則を基礎とした遠隔力学学習システムであるDistinction Engine (DE11) のフレームワークをインスタンス化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Teleodynamic Learning, a new paradigm for machine learning in which learning is not the minimization of a fixed objective, but the emergence and stabilization of functional organization under constraint. Inspired by living systems, this framework treats intelligence as the coupled evolution of three quantities: what a system can represent, how it adapts its parameters, and which changes its internal resources can sustain. We formalize learning as a constrained dynamical process with two interacting timescales: inner dynamics for continuous parameter adaptation and outer dynamics for discrete structural change, linked by an endogenous resource variable that both shapes and is shaped by the trajectory. This perspective reveals three phenomena that standard optimization does not naturally capture: self-stabilization without externally imposed stopping rules, phase-structured learning dynamics that move from under-structuring through teleodynamic growth to over-structuring, and convergence guarantees grounded in information geometry rather than convexity. We instantiate the framework in the Distinction Engine (DE11), a teleodynamic learner grounded in Spencer-Brown's Laws of Form, information geometry, and tropical optimization. On standard benchmarks, DE11 achieves 93.3 percent test accuracy on IRIS, 92.6 percent on WINE, and 94.7 percent on Breast Cancer, while producing interpretable logical rules that arise endogenously from the learning dynamics rather than being imposed by hand. More broadly, Teleodynamic Learning unifies regularization, architecture search, and resource-bounded inference within a single principle: learning as the co-evolution of structure, parameters, and resources under constraint. This opens a thermodynamically grounded route to adaptive, interpretable, and self-organizing AI.
- Abstract(参考訳): 本稿では,機械学習の新しいパラダイムであるテレダイナミックラーニングを紹介する。このパラダイムは,学習が一定の目的の最小化ではなく,制約下での機能的組織が出現し,安定化されるものである。
生きたシステムにインスパイアされたこのフレームワークは、インテリジェンスを3つの量 – システムが表現できるもの、パラメータの適応方法、内部リソースの変化が維持できるもの – の結合進化として扱う。
本研究では、連続パラメータ適応のための内部力学と離散構造変化のための外部力学の2つの相互作用する時間スケールを用いて、学習を制約された動的過程として定式化する。
この視点は、外部から規則を強制しない自己安定化、テレダイナミックな成長を経て過度な構造化へと移行する相構造化学習力学、凸性よりも情報幾何学に根ざした収束保証の3つの現象を自然に捉えない。
本研究では,スペンサー・ブラウンの形式法則,情報幾何学,熱帯最適化を基礎とした遠隔力学学習システムであるDistinction Engine (DE11) のフレームワークをインスタンス化する。
標準的なベンチマークでは、De11はIRISで93.3%、WINEで92.6%、乳がんで94.7%の精度を達成している。
より広くは、Teleodynamic Learningは、規則化、アーキテクチャ探索、リソース境界推論を単一の原則で統一する: 制約の下で構造、パラメータ、リソースの共進化として学ぶ。
これにより、適応的で解釈可能で自己組織化されたAIに熱力学的に接地された経路が開かれる。
関連論文リスト
- Learning Beyond Optimization: Stress-Gated Dynamical Regime Regulation in Autonomous Systems [0.0]
明示的な目的を持たずに学習するための枠組みを提案する。
外部エラー信号を最小化する代わりに、システムは内部力学の本質的な健康を評価する。
この結果から,自律学習システムへの道筋が示唆された。
論文 参考訳(メタデータ) (2026-02-20T19:39:56Z) - Degradation of Feature Space in Continual Learning [2.322400467239964]
本研究では,特徴空間の等方性向上が連続学習における表現品質の向上に寄与するかどうかを考察する。
等方正則化は改善せず、実際には劣化し、連続的な設定で精度をモデル化できる。
論文 参考訳(メタデータ) (2026-02-06T10:26:34Z) - Training instability in deep learning follows low-dimensional dynamical principles [24.97566911521709]
トレーニングは、最適化、データ、パラメータ、学習信号に対する小さな摂動が突然で不可逆的な崩壊を引き起こす、高次元力学系として展開される。
本稿では,学習システムの本質的な特性としてトレーニング安定性を特徴付ける統一力学的視点を提案する。
論文 参考訳(メタデータ) (2026-01-19T15:37:45Z) - Dynamic Nested Hierarchies: Pioneering Self-Evolution in Machine Learning Architectures for Lifelong Intelligence [1.932555230783329]
この研究は、人工知能と機械学習を進化させる次の進化ステップとして、動的ネスト階層を提案する。
動的ネスト階層は、モデルに最適化レベルの数、ネスト構造を自律的に調整し、トレーニングや推論中に頻度を更新する権限を与える。
この革新は、既存のモデルにおける無秩序な記憶に対処し、コンテキストフローを動的に圧縮し、分布シフトに適応することによって、真の生涯学習を促進する。
論文 参考訳(メタデータ) (2025-11-18T15:59:44Z) - Rethinking the Role of Dynamic Sparse Training for Scalable Deep Reinforcement Learning [58.533203990515034]
ニューラルネットワークのスケーリングは機械学習における画期的な進歩をもたらしたが、このパラダイムは深層強化学習(DRL)では失敗している。
我々は、動的スパーストレーニング戦略が、アーキテクチャの改善によって確立された主要なスケーラビリティ基盤を補完するモジュール固有の利点を提供することを示す。
アーキテクチャ改善の利点を生かした実践的なフレームワークであるModule-Specific Training (MST) にこれらの知見を精査し、アルゴリズムの修正なしに様々なRLアルゴリズムをまたいだ大幅なスケーラビリティ向上を示す。
論文 参考訳(メタデータ) (2025-10-14T03:03:08Z) - Dynamic Manipulation of Deformable Objects in 3D: Simulation, Benchmark and Learning Strategy [88.8665000676562]
従来の手法は、しばしば問題を低速または2D設定に単純化し、現実の3Dタスクに適用性を制限する。
データ不足を軽減するため、新しいシミュレーションフレームワークと、低次ダイナミクスに基づくベンチマークを導入する。
本研究では,シミュレーション前トレーニングと物理インフォームドテスト時間適応を統合するフレームワークであるDynamics Informed Diffusion Policy (DIDP)を提案する。
論文 参考訳(メタデータ) (2025-05-23T03:28:25Z) - Learning spatio-temporal patterns with Neural Cellular Automata [0.0]
我々はNAAを訓練し、時系列画像とPDE軌道から複雑な力学を学ぶ。
我々はNCAを拡張し、同じシステム内の過渡構造と安定構造の両方を捕捉する。
任意のダイナミクスを学べることによって、NAAはデータ駆動モデリングフレームワークとして大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-10-23T11:16:32Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。