論文の概要: Developmental Symmetry-Loss: A Free-Energy Perspective on Brain-Inspired Invariance Learning
- arxiv url: http://arxiv.org/abs/2512.10984v2
- Date: Mon, 15 Dec 2025 20:56:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-21 14:22:08.679164
- Title: Developmental Symmetry-Loss: A Free-Energy Perspective on Brain-Inspired Invariance Learning
- Title(参考訳): 発達的対称性-ロス:脳にインスパイアされた不変学習における自由エネルギー的視点
- Authors: Arif Dönmez,
- Abstract要約: 我々は脳に触発されたアルゴリズム原理であるSymmetry-Lossを提案する。
表現学習において,Symmetry-Lossがフリーエネルギライクな目的をどう運用するかを示す。
その結果、脳における発達学習と、人工システムにおける原則的表現学習を結びつける一般的な計算機構が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Symmetry-Loss, a brain-inspired algorithmic principle that enforces invariance and equivariance through a differentiable constraint derived from environmental symmetries. The framework models learning as the iterative refinement of an effective symmetry group, paralleling developmental processes in which cortical representations align with the world's structure. By minimizing structural surprise, i.e. deviations from symmetry consistency, Symmetry-Loss operationalizes a Free-Energy--like objective for representation learning. This formulation bridges predictive-coding and group-theoretic perspectives, showing how efficient, stable, and compositional representations can emerge from symmetry-based self-organization. The result is a general computational mechanism linking developmental learning in the brain with principled representation learning in artificial systems.
- Abstract(参考訳): 我々は、環境対称性から派生した微分可能な制約により、不変性と等分散を強制する、脳にインスパイアされたアルゴリズム原理であるSymmetry-Lossを提案する。
このフレームワークは学習を効果的な対称性群の反復的洗練としてモデル化し、皮質表現が世界の構造と整合する発達過程を並列化する。
対称性の整合性から逸脱する構造的サプライズを最小化することにより、Symmetry-Lossは表現学習のための自由エネルギーのような目的を運用する。
この定式化は予測符号化と群論的な視点を橋渡しし、対称性に基づく自己組織化からいかに効率的で安定で構成的な表現が現れるかを示している。
その結果、脳における発達学習と、人工システムにおける原則的表現学習を結びつける一般的な計算機構が得られた。
関連論文リスト
- Loss Landscape Geometry and the Learning of Symmetries: Or, What Influence Functions Reveal About Robust Generalization [0.14201057456467273]
神経エミュレータは、影響に基づく診断を導入することにより、物理的対称性を内部化する。
この量は、学習された損失ランドスケープの局所幾何学を探索する。
我々は、軌道ワイド勾配コヒーレンスが対称性変換を一般化する学習のメカニズムを提供することを示した。
論文 参考訳(メタデータ) (2026-01-28T02:14:01Z) - Reinforcement Learning Using known Invariances [54.91261509214309]
本稿では、既知のグループ対称性をカーネルベースの強化学習に組み込むための理論的枠組みを開発する。
対称性を意識したRLは、標準のカーネルよりも大幅に性能が向上することを示す。
論文 参考訳(メタデータ) (2025-11-05T13:56:14Z) - Partial Symmetry Enforced Attention Decomposition (PSEAD): A Group-Theoretic Framework for Equivariant Transformers in Biological Systems [0.0]
本研究はPSEAD(Partial Symmetry Enforced Attention Decomposition)の理論を紹介する。
本研究では,生物データのウィンドウ上での局所置換サブグループ動作の概念を定式化し,注意機構が自然に既約成分の直接和に分解されることを証明した。
この研究は、生物学的に認知され、対称性を意識した人工知能の新しい世代の基盤となる。
論文 参考訳(メタデータ) (2025-07-20T10:44:31Z) - Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - Symmetry From Scratch: Group Equivariance as a Supervised Learning Task [1.8570740863168362]
対称性を持つ機械学習データセットにおいて、対称性の破れとの後方互換性のパラダイムは、同変のアーキテクチャ制約を緩和することであった。
機械学習モデルにおける同値化を誘導する手法である対称性閉包を導入する。
論文 参考訳(メタデータ) (2024-10-05T00:44:09Z) - Bayesian Unsupervised Disentanglement of Anatomy and Geometry for Deep Groupwise Image Registration [59.062085785106234]
本稿では,マルチモーダル群画像登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から4つの異なるデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - Towards Information Theory-Based Discovery of Equivariances [1.2289361708127875]
対称性の存在は、システムに厳密な制約のセットを課す。
並行して、複雑性に制約のある学習と行動の原則モデルが、情報理論の手法の利用を増大させる。
本稿では,学習と情報制約のある適応行動に関する多くの原則研究において,生産的基盤として機能する情報ボトルネック原理の新たな変種を提案する。
論文 参考訳(メタデータ) (2023-10-25T11:19:40Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - Symmetry Induces Structure and Constraint of Learning [0.0]
機械学習モデルの学習行動に影響を及ぼすか、決定しないかにかかわらず、損失関数対称性の重要性を明らかにする。
ディープラーニングにおけるミラー対称性の一般的な例としては、再スケーリング、回転、置換対称性がある。
ニューラルネットワークにおける可塑性の喪失や様々な崩壊現象などの興味深い現象を理論的枠組みで説明できることを示す。
論文 参考訳(メタデータ) (2023-09-29T02:21:31Z) - Evaluating the Robustness of Interpretability Methods through
Explanation Invariance and Equivariance [72.50214227616728]
解釈可能性法は、それらの説明が説明されたモデルを忠実に記述した場合にのみ有用である。
特定の対称性群の下で予測が不変であるニューラルネットワークを考える。
論文 参考訳(メタデータ) (2023-04-13T17:59:03Z) - On discrete symmetries of robotics systems: A group-theoretic and
data-driven analysis [38.92081817503126]
力学系の離散的形態対称性について検討する。
これらの対称性は、系の形態学における1つ以上の平面/対称性の軸の存在から生じる。
我々はこれらの対称性をデータ拡張と$G$-equivariant Neural Networkを用いて活用する。
論文 参考訳(メタデータ) (2023-02-21T04:10:16Z) - On the Importance of Asymmetry for Siamese Representation Learning [53.86929387179092]
シームズネットワークは、2つの並列エンコーダと概念的に対称である。
ネットワーク内の2つのエンコーダを明確に区別することで,非対称性の重要性について検討する。
非対称設計による改善は、より長いトレーニングスケジュール、複数の他のフレームワーク、より新しいバックボーンに一般化されている。
論文 参考訳(メタデータ) (2022-04-01T17:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。