論文の概要: Symbol-Equivariant Recurrent Reasoning Models
- arxiv url: http://arxiv.org/abs/2603.02193v1
- Date: Mon, 02 Mar 2026 18:53:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:57.042032
- Title: Symbol-Equivariant Recurrent Reasoning Models
- Title(参考訳): 記号同変 Recurrent Reasoning Models
- Authors: Richard Freinschlag, Timo Bertram, Erich Kobler, Andreas Mayr, Günter Klambauer,
- Abstract要約: SudokuやARC-AGIのような推論問題は、ニューラルネットワークでは依然として困難である。
本稿では,アーキテクチャレベルでの置換等式を強制するSymbol-Equivariant Recurrent Reasoning Models (SE-RRMs)を紹介する。
ARC-AGI-1 と ARC-AGI-2 では、SE-RRM はデータ拡張が大幅に少なく、パラメータは200万である。
- 参考スコア(独自算出の注目度): 8.237538442785231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reasoning problems such as Sudoku and ARC-AGI remain challenging for neural networks. The structured problem solving architecture family of Recurrent Reasoning Models (RRMs), including Hierarchical Reasoning Model (HRM) and Tiny Recursive Model (TRM), offer a compact alternative to large language models, but currently handle symbol symmetries only implicitly via costly data augmentation. We introduce Symbol-Equivariant Recurrent Reasoning Models (SE-RRMs), which enforce permutation equivariance at the architectural level through symbol-equivariant layers, guaranteeing identical solutions under symbol or color permutations. SE-RRMs outperform prior RRMs on 9x9 Sudoku and generalize from just training on 9x9 to smaller 4x4 and larger 16x16 and 25x25 instances, to which existing RRMs cannot extrapolate. On ARC-AGI-1 and ARC-AGI-2, SE-RRMs achieve competitive performance with substantially less data augmentation and only 2 million parameters, demonstrating that explicitly encoding symmetry improves the robustness and scalability of neural reasoning. Code is available at https://github.com/ml-jku/SE-RRM.
- Abstract(参考訳): SudokuやARC-AGIのような推論問題は、ニューラルネットワークでは依然として困難である。
階層的推論モデル (HRM) やTiny Recursive Model (TRM) を含む、Recurrent Reasoning Models (RRMs) の構造化された問題解決アーキテクチャファミリは、大規模言語モデルのコンパクトな代替手段を提供するが、現在、シンボル対称性を暗黙的に扱うのはコストのかかるデータ拡張のみである。
本稿では,記号-等変層によるアーキテクチャレベルでの置換同値を強制する記号-等変リカレント推論モデル(SE-RRMs)を導入し,同じ解をシンボルや色順変下で保証する。
SE-RRM は 9x9 Sudoku の RRM よりも優れており、9x9 のトレーニングから 4x4 より小さい 16x16 と 25x25 のインスタンスに一般化され、既存の RRM は外挿できない。
ARC-AGI-1 と ARC-AGI-2 では、SE-RRM は、データ拡張が著しく少なく、200万のパラメータしか持たない競争性能を達成し、対称性を明示的に符号化することで、ニューラル推論の堅牢性とスケーラビリティが向上することを示した。
コードはhttps://github.com/ml-jku/SE-RRM.comで入手できる。
関連論文リスト
- Less is More: Recursive Reasoning with Tiny Networks [6.294759639481189]
階層推論モデル(Hierarchical Reasoning Model, HRM)は、異なる周波数で再帰する2つの小さなニューラルネットワークを用いた新しいアプローチである。
小型ネットワークの難題を解決するために,Tiny Recursive Model (TRM)を提案する。
TRMはARC-AGI-1で45%、ARC-AGI-2で8%の精度を達成した。
論文 参考訳(メタデータ) (2025-10-06T14:58:08Z) - A2R: An Asymmetric Two-Stage Reasoning Framework for Parallel Reasoning [57.727084580884075]
モデルポテンシャルと実際の性能の間のギャップを埋めるために設計された非対称な2段階推論フレームワーク。
A2R-Efficientは、Qwen3-4BとQwen3-8Bシンセサイザーを組み合わせた「小型から大型」の派生型である。
その結果、A2Rはパフォーマンス・ブートスティングのフレームワークであるだけでなく、現実世界のアプリケーションに対して効率的かつ実用的なソリューションであることがわかった。
論文 参考訳(メタデータ) (2025-09-26T08:27:03Z) - Reinforced Model Merging [53.84354455400038]
本稿では,タスク統合に適した環境とエージェントを含むRMM(Reinforced Model Merging)という,革新的なフレームワークを提案する。
評価プロセス中にデータサブセットを利用することで、報酬フィードバックフェーズのボトルネックに対処し、RMMを最大100倍高速化する。
論文 参考訳(メタデータ) (2025-03-27T08:52:41Z) - End-to-End Implicit Neural Representations for Classification [57.55927378696826]
Inlicit Neural representations (INRs) は、ニューラルネットワークパラメータの信号を符号化し、信号再構成に優れた結果を示す。
INRをベースとした分類は、CNNのようなピクセルベースの手法に比べて、依然としてかなり低性能である。
本研究は,SIRENを学習段階のスキームとともに初期化するエンド・ツー・エンドの戦略を提案する。
論文 参考訳(メタデータ) (2025-03-23T16:02:23Z) - Incorporating Arbitrary Matrix Group Equivariance into KANs [69.30866522377694]
Kolmogorov-Arnold Networks (KAN) は科学分野で大きな成功を収めている。
本研究では,Equivariant Kolmogorov-Arnold Networks (EKAN)を提案する。
論文 参考訳(メタデータ) (2024-10-01T06:34:58Z) - FAENet: Frame Averaging Equivariant GNN for Materials Modeling [123.19473575281357]
データ変換による任意のモデルE(3)-同変や不変化を実現するために,フレームアラグリング(SFA)に依存したフレキシブルなフレームワークを導入する。
本手法の有効性を理論的および実験的に証明し, 材料モデリングにおける精度と計算スケーラビリティを実証する。
論文 参考訳(メタデータ) (2023-04-28T21:48:31Z) - Provable Domain Generalization via Invariant-Feature Subspace Recovery [18.25619572103648]
本稿では,不変部分空間回復(ISR)を用いた領域一般化を提案する。
トレーニングIRMとは異なり、アルゴリズムは非変分問題をバイパスし、グローバルコンバージェンスを楽しむ。
さらに、実世界の3つの画像データセットにおいて、ISR-は単純で効果的な後処理法として利用できることを示す。
論文 参考訳(メタデータ) (2022-01-30T21:22:47Z) - Learning Augmentation Distributions using Transformed Risk Minimization [47.236227685707526]
本稿では,古典的リスク最小化の拡張として,新しいemphTransformed Risk Minimization(TRM)フレームワークを提案する。
重要な応用として、与えられたクラスの予測器による分類性能を改善するために、学習強化に焦点を当てる。
論文 参考訳(メタデータ) (2021-11-16T02:07:20Z) - Towards Extremely Compact RNNs for Video Recognition with Fully
Decomposed Hierarchical Tucker Structure [41.41516453160845]
完全に分解された階層型タッカー(FDHT)構造を持つ非常にコンパクトなRNNモデルを提案する。
複数のポピュラービデオ認識データセットを用いた実験結果から,完全分解型階層型タッカー型lstmは極めてコンパクトかつ高効率であることがわかった。
論文 参考訳(メタデータ) (2021-04-12T18:40:44Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z) - MSR-DARTS: Minimum Stable Rank of Differentiable Architecture Search [45.09936304802425]
ニューラルアーキテクチャサーチ(NAS)において、微分可能なアーキテクチャサーチ(DARTS)が最近注目されている。
本稿では,最小安定ランクDARTS (MSR-DARTS) と呼ばれる手法を提案する。
MSR-DARTSは、CIFAR-10で0.3GPU日間で2.54%、ImageNetで23.9%のエラー率を達成した。
論文 参考訳(メタデータ) (2020-09-19T11:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。