論文の概要: CHLU: The Causal Hamiltonian Learning Unit as a Symplectic Primitive for Deep Learning
- arxiv url: http://arxiv.org/abs/2603.01768v1
- Date: Mon, 02 Mar 2026 11:53:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.850557
- Title: CHLU: The Causal Hamiltonian Learning Unit as a Symplectic Primitive for Deep Learning
- Title(参考訳): CHLU: 深層学習のためのシンプレクティックプリミティブとしての因果ハミルトン学習ユニット
- Authors: Pratik Jawahar, Maurizio Pierini,
- Abstract要約: 我々は,物理基礎の計算学習プリミティブであるtextbfCausal Hamiltonian Learning Unit (textitclue) を提案する。
相対論的ハミルトン構造を強制し、シンプレクティック積分を利用することにより、CHLUは位相空間体積を厳密に保存する。
このCHLUは、制御可能なノイズフィルタリングと同様に、無限水平安定性のために設計されていることを示す。
- 参考スコア(独自算出の注目度): 0.7671363331051473
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current deep learning primitives dealing with temporal dynamics suffer from a fundamental dichotomy: they are either discrete and unstable (LSTMs) \citep{pascanu_difficulty_2013}, leading to exploding or vanishing gradients; or they are continuous and dissipative (Neural ODEs) \citep{dupont_augmented_2019}, which destroy information over time to ensure stability. We propose the \textbf{Causal Hamiltonian Learning Unit} (pronounced: \textit{clue}), a novel Physics-grounded computational learning primitive. By enforcing a Relativistic Hamiltonian structure and utilizing symplectic integration, a CHLU strictly conserves phase-space volume, as an attempt to solve the memory-stability trade-off. We show that the CHLU is designed for infinite-horizon stability, as well as controllable noise filtering. We then demonstrate a CHLU's generative ability using the MNIST dataset as a proof-of-principle.
- Abstract(参考訳): 離散的かつ不安定な (LSTMs) \citep{pascanu_difficulty_2013} か、爆発的あるいは消滅的な勾配、あるいは連続的で散逸的な (Neural ODEs) \citep{dupont_augmented_2019} である。
本稿では,新しい物理基底計算学習プリミティブである‘textbf{Causal Hamiltonian Learning Unit’ (発音: \textit{clue})を提案する。
相対論的ハミルトン構造を強制しシンプレクティック積分を利用することにより、CHLUは位相空間の体積を厳密に保存し、メモリ安定性のトレードオフを解決する。
このCHLUは、制御可能なノイズフィルタリングと同様に、無限水平安定性のために設計されていることを示す。
次に、MNISTデータセットを原理実証としてCHLUの生成能力を実証する。
関連論文リスト
- From Core to Detail: Unsupervised Disentanglement with Entropy-Ordered Flows [8.351253396371686]
エントロピー順序付き流れ (EOFlows) は、その説明エントロピーにより遅延次元を順序付けする。
EOFlowsは独立メカニズム分析、主成分フロー、マニフォールドエントロピーメトリックからの洞察に基づいて構築される。
確率ベーストレーニングと局所ジャコビアン正規化と雑音増強を併用して,画像などの高次元データによく対応できる手法を提案する。
論文 参考訳(メタデータ) (2026-02-06T18:41:03Z) - Accordion-Thinking: Self-Regulated Step Summaries for Efficient and Readable LLM Reasoning [62.680551162054975]
我々はLLMが動的要約によって推論ステップの粒度を自己制御することを学ぶエンドツーエンドのフレームワークを紹介した。
高い効率のFoldモードと徹底的なUnfoldモードの精度ギャップを徐々に狭めていくという重要な知見を見出し,この能力をさらにインセンティブ化するために強化学習を適用した。
私たちのAccordion-Thinkerは、学習した自己圧縮により、LLMは依存性トークンのオーバーヘッドを最小限に抑えながら複雑な推論タスクに取り組むことができることを示した。
論文 参考訳(メタデータ) (2026-02-03T08:34:20Z) - Phase-space entropy at acquisition reflects downstream learnability [54.4100065023873]
楽器分解位相空間に基づく取得レベルスカラー$S_mathcal B$を提案する。
本稿では, (S_mathcal B) が周期サンプリングの位相空間コヒーレンスを正確に同定できることを理論的に示す。
$|S_mathcal B|$は一貫してサンプリングジオメトリをランク付けし、トレーニングなしで下流での再構築/認識の困難を予測します。
論文 参考訳(メタデータ) (2025-12-22T10:03:51Z) - Learnability Window in Gated Recurrent Neural Networks [3.924071936547547]
ゲート機構は、リカレントニューラルネットワークの学習性ウィンドウ$mathcalH_N$を決定する。
学習容易性は,効果学習率$_t,ell$,ラグあたり,ニューロンあたりの量によって制御されていることを示す。
論文 参考訳(メタデータ) (2025-12-05T15:16:59Z) - From Black Hole to Galaxy: Neural Operator: Framework for Accretion and Feedback Dynamics [70.27068115318681]
ニューラルベースの「サブグリッドブラックホール」を導入し、小さな局所力学を学習し、直接シミュレーションに組み込む。
微細な進化の大きなスピードアップにより、我々は、降着駆動のフィードバックで固有の変動を捉え、中心ブラックホールと銀河スケールのガスの動的結合を可能にした。
論文 参考訳(メタデータ) (2025-12-01T11:47:49Z) - Structured Knowledge Accumulation: The Principle of Entropic Least Action in Forward-Only Neural Learning [0.0]
ニューラルネットワークのネット関数と特性時間特性の2つの基本概念を紹介する。
学習を時間ベースのプロセスとして理解することで、効率的で堅牢で生物学的にインスパイアされたAIシステムを構築するための新たな方向性を開拓します。
論文 参考訳(メタデータ) (2025-04-04T07:00:27Z) - Learning a Fast Mixing Exogenous Block MDP using a Single Trajectory [87.62730694973696]
STEELは、単一軌道から外因性ブロックマルコフ決定過程の制御可能なダイナミクスを学習するための、最初の証明可能なサンプル効率アルゴリズムである。
我々は,STEELが正解であり,サンプル効率が良いことを証明し,STEELを2つの玩具問題で実証した。
論文 参考訳(メタデータ) (2024-10-03T21:57:21Z) - Dissipation-enabled bosonic Hamiltonian learning via new
information-propagation bounds [1.0499611180329802]
ボソニックハミルトニアンが簡単な量子実験から効率的に学習できることが示される。
我々の研究は、ボソニック・ハミルトンの幅広いクラスが単純な量子実験から効率的に学習できることを実証している。
論文 参考訳(メタデータ) (2023-07-27T17:35:07Z) - PromptFusion: Decoupling Stability and Plasticity for Continual Learning [83.68586386842105]
本稿では,プロンプトフュージョン(PromptFusion)と呼ばれるプロンプトチューニングによる安定性と塑性の疎結合を実現する手法を提案する。
特にPromptFusionは、破滅的な忘れ物を扱う慎重に設計されたスタブモジュールと、新しい知識を同時に学習するためのブーモジュールで構成されている。
PromptFusionとPromptFusion-Liteはどちらも、クラスインクリメンタルとドメインインクリメンタル設定のための一般的な継続的学習データセットにおいて、有望な結果を達成することを示す実験である。
論文 参考訳(メタデータ) (2023-03-13T15:58:00Z) - Information Topology [6.0044467881527614]
本稿では,情報理論と代数的トポロジーを統合するフレームワークであるEmphInformation Topologyを紹介する。
スタートポイントは、順不変で予測的構造(サイクル)から点的に、順序に敏感な揺らぎ(ドット)を分離するエンファンドットサイクル二分法である。
次に,Shannonキャパシティのトポロジ的双対であるエンフォロジーキャパシティを,システムによって支えられる独立した情報サイクルの数として定義する。
論文 参考訳(メタデータ) (2022-10-07T23:54:30Z) - Losing momentum in continuous-time stochastic optimisation [42.617042045455506]
運動量に基づく最適化アルゴリズムは 特に広まりました
本研究では、運動量を伴う勾配降下の連続時間モデルを解析する。
また、画像分類問題において畳み込みニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2022-09-08T10:46:05Z) - Robust and Provably Monotonic Networks [0.0]
深層学習モデルのリプシッツ定数を制約する新しい手法を提案する。
LHCbのリアルタイムデータ処理システムにおいて, 強靭で解釈可能な判別器を学習するために, アルゴリズムがどのように使われたかを示す。
論文 参考訳(メタデータ) (2021-11-30T19:01:32Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Can Temporal-Difference and Q-Learning Learn Representation? A Mean-Field Theory [110.99247009159726]
時間差とQ-ラーニングは、ニューラルネットワークのような表現力のある非線形関数近似器によって強化される深層強化学習において重要な役割を担っている。
特に時間差学習は、関数近似器が特徴表現において線形であるときに収束する。
論文 参考訳(メタデータ) (2020-06-08T17:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。