論文の概要: Understanding Learning through the Lens of Dynamical Invariants
- arxiv url: http://arxiv.org/abs/2401.10428v1
- Date: Fri, 19 Jan 2024 00:13:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 17:21:20.544071
- Title: Understanding Learning through the Lens of Dynamical Invariants
- Title(参考訳): 動的不変量のレンズによる学習の理解
- Authors: Alex Ushveridze
- Abstract要約: 本稿では,動的不変量の追求として,学習の新たな視点を提案する。
この概念は、これらの不変量の本質的な性質に根ざした、情報的および物理的原理の両方によって根ざされている。
これらの安定不変量の予測可能性により、正確に予測された情報の1ビット当たりのkTln2として定量化できる有用な使用エネルギー源となる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel perspective on learning, positing it as the
pursuit of dynamical invariants -- data combinations that remain constant or
exhibit minimal change over time as a system evolves. This concept is
underpinned by both informational and physical principles, rooted in the
inherent properties of these invariants. Firstly, their stability makes them
ideal for memorization and integration into associative networks, forming the
basis of our knowledge structures. Secondly, the predictability of these stable
invariants makes them valuable sources of usable energy, quantifiable as kTln2
per bit of accurately predicted information. This energy can be harnessed to
explore new transformations, rendering learning systems energetically
autonomous and increasingly effective. Such systems are driven to continuously
seek new data invariants as energy sources. The paper further explores several
meta-architectures of autonomous, self-propelled learning agents that utilize
predictable information patterns as a source of usable energy.
- Abstract(参考訳): 本稿では,学習に関する新しい視点を提案し,動的不変量 -- システムの進化とともに時間とともに変化の少ないデータの組み合わせ -- の追求を実証する。
この概念は、これらの不変量の本質的性質に根ざした情報的・物理的原理の両方に基づいている。
第一に、その安定性は記憶と連想ネットワークへの統合に理想的であり、知識構造の基礎を形成します。
第二に、これらの安定な不変量の予測可能性は、正確な予測情報のビット当たりktln2として定量化できる有用なエネルギー源となる。
このエネルギーは、新たな変革を探求し、学習システムをエネルギ的に自律的かつより効果的にレンダリングするために利用することができる。
このようなシステムは、エネルギー源として新しいデータ不変性を継続的に求めている。
さらに,予測可能な情報パターンを利用可能なエネルギー源として活用する自律型自己推進型学習エージェントのメタアーキテクチャについて検討した。
関連論文リスト
- Identifiable Representation and Model Learning for Latent Dynamic Systems [0.0]
本稿では,潜在力学系における表現とモデル学習の問題について検討する。
線形あるいはアフィン非線形潜在力学系に対して、スケーリングまでの表現を同定し、いくつかの単純な変換までモデルを決定できることを証明した。
論文 参考訳(メタデータ) (2024-10-23T13:55:42Z) - Unsupervised Learning of Hybrid Latent Dynamics: A Learn-to-Identify
Framework [9.587766468221535]
現代の応用では、高次元時系列からの潜在力学の教師なし学習がますます求められている。
本稿では、モデル化されているデータに特異的な物理誘導バイアスの使用と、その識別に使用されるデータから予測対象を分離する学習・識別戦略について検討する。
我々はこれら2つの戦略をハイブリッド潜在力学(Meta-HyLaD)の教師なしメタラーニングのための新しいフレームワークに組み合わせる。
論文 参考訳(メタデータ) (2024-03-13T02:33:57Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - IF2Net: Innately Forgetting-Free Networks for Continual Learning [49.57495829364827]
継続的な学習は、以前に学んだ知識に干渉することなく、新しい概念を漸進的に吸収することができる。
ニューラルネットワークの特性に触発され,本研究は,IF2Net(Innately Forgetting-free Network)の設計方法について検討した。
IF2Netは、1つのネットワークがテスト時にタスクのIDを告げることなく、本質的に無制限のマッピングルールを学習することを可能にする。
論文 参考訳(メタデータ) (2023-06-18T05:26:49Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Evolution TANN and the discovery of the internal variables and evolution
equations in solid mechanics [0.0]
材料表現をインクリメンタルな定式化から切り離す新しい手法を提案する。
熱力学に基づくニューラルネットワーク(TANN)と内部変数の理論にインスパイアされた進化 TANN(eTANN)は、連続時間である。
提案手法の主な特徴は、通常の微分方程式の形で内部変数の進化方程式の発見である。
論文 参考訳(メタデータ) (2022-09-27T09:25:55Z) - From latent dynamics to meaningful representations [0.5728954513076778]
純粋に動的に制約された表現学習フレームワークを提案する。
これは力学系における表現学習のより自然な制約であることを示す。
我々は,現実の蛍光DNAフィルムデータセットを含む様々なシステムに対して,我々の枠組みを検証する。
論文 参考訳(メタデータ) (2022-09-02T09:27:37Z) - Relational Self-Attention: What's Missing in Attention for Video
Understanding [52.38780998425556]
リレーショナル・セルフアテンション(RSA)と呼ばれるリレーショナル・フィーチャー・トランスフォーメーションを導入する。
我々の実験およびアブレーション研究により、RSAネットワークは、畳み込みや自己意図的ネットワークよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2021-11-02T15:36:11Z) - Meta-learning using privileged information for dynamics [66.32254395574994]
Neural ODE Processモデルを拡張して、Learning Using Privileged Information設定内の追加情報を使用します。
シミュレーション動的タスクの精度とキャリブレーションを向上した実験により拡張性を検証する。
論文 参考訳(メタデータ) (2021-04-29T12:18:02Z) - Variational Integrator Graph Networks for Learning Energy Conserving
Dynamical Systems [1.2522889958051286]
近年の進歩は、物理インフォームドプリエントに埋め込まれたニューラルネットワークが、学習においてバニラニューラルネットワークを著しく上回っていることを示している。
本稿では,エネルギー制約,高次変動,シンプレクティック変動,グラフニューラルネットワークを組み合わせることで,既存のアプローチの強みを統一する手法を提案する。
論文 参考訳(メタデータ) (2020-04-28T17:42:47Z) - Learning Stable Deep Dynamics Models [91.90131512825504]
状態空間全体にわたって安定することが保証される力学系を学習するためのアプローチを提案する。
このような学習システムは、単純な力学系をモデル化することができ、複雑な力学を学習するために追加の深層生成モデルと組み合わせることができることを示す。
論文 参考訳(メタデータ) (2020-01-17T00:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。