論文の概要: Developmental Symmetry-Loss: A Free-Energy Perspective on Brain-Inspired Invariance Learning
- arxiv url: http://arxiv.org/abs/2512.10984v2
- Date: Mon, 15 Dec 2025 20:56:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-21 14:22:08.679164
- Title: Developmental Symmetry-Loss: A Free-Energy Perspective on Brain-Inspired Invariance Learning
- Title(参考訳): 発達的対称性-ロス:脳にインスパイアされた不変学習における自由エネルギー的視点
- Authors: Arif Dönmez,
- Abstract要約: 我々は脳に触発されたアルゴリズム原理であるSymmetry-Lossを提案する。
表現学習において,Symmetry-Lossがフリーエネルギライクな目的をどう運用するかを示す。
その結果、脳における発達学習と、人工システムにおける原則的表現学習を結びつける一般的な計算機構が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Symmetry-Loss, a brain-inspired algorithmic principle that enforces invariance and equivariance through a differentiable constraint derived from environmental symmetries. The framework models learning as the iterative refinement of an effective symmetry group, paralleling developmental processes in which cortical representations align with the world's structure. By minimizing structural surprise, i.e. deviations from symmetry consistency, Symmetry-Loss operationalizes a Free-Energy--like objective for representation learning. This formulation bridges predictive-coding and group-theoretic perspectives, showing how efficient, stable, and compositional representations can emerge from symmetry-based self-organization. The result is a general computational mechanism linking developmental learning in the brain with principled representation learning in artificial systems.
- Abstract(参考訳): 我々は、環境対称性から派生した微分可能な制約により、不変性と等分散を強制する、脳にインスパイアされたアルゴリズム原理であるSymmetry-Lossを提案する。
このフレームワークは学習を効果的な対称性群の反復的洗練としてモデル化し、皮質表現が世界の構造と整合する発達過程を並列化する。
対称性の整合性から逸脱する構造的サプライズを最小化することにより、Symmetry-Lossは表現学習のための自由エネルギーのような目的を運用する。
この定式化は予測符号化と群論的な視点を橋渡しし、対称性に基づく自己組織化からいかに効率的で安定で構成的な表現が現れるかを示している。
その結果、脳における発達学習と、人工システムにおける原則的表現学習を結びつける一般的な計算機構が得られた。
関連論文リスト
- Reinforcement Learning Using known Invariances [54.91261509214309]
本稿では、既知のグループ対称性をカーネルベースの強化学習に組み込むための理論的枠組みを開発する。
対称性を意識したRLは、標準のカーネルよりも大幅に性能が向上することを示す。
論文 参考訳(メタデータ) (2025-11-05T13:56:14Z) - Partial Symmetry Enforced Attention Decomposition (PSEAD): A Group-Theoretic Framework for Equivariant Transformers in Biological Systems [0.0]
本研究はPSEAD(Partial Symmetry Enforced Attention Decomposition)の理論を紹介する。
本研究では,生物データのウィンドウ上での局所置換サブグループ動作の概念を定式化し,注意機構が自然に既約成分の直接和に分解されることを証明した。
この研究は、生物学的に認知され、対称性を意識した人工知能の新しい世代の基盤となる。
論文 参考訳(メタデータ) (2025-07-20T10:44:31Z) - Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - Symmetry From Scratch: Group Equivariance as a Supervised Learning Task [1.8570740863168362]
対称性を持つ機械学習データセットにおいて、対称性の破れとの後方互換性のパラダイムは、同変のアーキテクチャ制約を緩和することであった。
機械学習モデルにおける同値化を誘導する手法である対称性閉包を導入する。
論文 参考訳(メタデータ) (2024-10-05T00:44:09Z) - Bayesian Unsupervised Disentanglement of Anatomy and Geometry for Deep Groupwise Image Registration [59.062085785106234]
本稿では,マルチモーダル群画像登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から4つの異なるデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - Symmetry Induces Structure and Constraint of Learning [0.0]
機械学習モデルの学習行動に影響を及ぼすか、決定しないかにかかわらず、損失関数対称性の重要性を明らかにする。
ディープラーニングにおけるミラー対称性の一般的な例としては、再スケーリング、回転、置換対称性がある。
ニューラルネットワークにおける可塑性の喪失や様々な崩壊現象などの興味深い現象を理論的枠組みで説明できることを示す。
論文 参考訳(メタデータ) (2023-09-29T02:21:31Z) - On discrete symmetries of robotics systems: A group-theoretic and
data-driven analysis [38.92081817503126]
力学系の離散的形態対称性について検討する。
これらの対称性は、系の形態学における1つ以上の平面/対称性の軸の存在から生じる。
我々はこれらの対称性をデータ拡張と$G$-equivariant Neural Networkを用いて活用する。
論文 参考訳(メタデータ) (2023-02-21T04:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。