論文の概要: Universal Reasoning Model
- arxiv url: http://arxiv.org/abs/2512.14693v1
- Date: Tue, 16 Dec 2025 18:58:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.845192
- Title: Universal Reasoning Model
- Title(参考訳): ユニバーサル推論モデル
- Authors: Zitian Gao, Lynx Chen, Yihao Xiao, He Xing, Ran Tao, Haoming Luo, Joey Zhou, Bryan Dai,
- Abstract要約: Universal Transformer (UT) はARC-AGI や Sudoku といった複雑な推論タスクに広く使われている。
ARC-AGIの改良は主にTransformerの繰り返し誘導バイアスと強い非線形成分から生じる。
この発見を動機として,短い畳み込みと切り離されたバックプロパゲーションでUTを向上させるUniversal Reasoning Model (URM)を提案する。
- 参考スコア(独自算出の注目度): 6.094134367400741
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal transformers (UTs) have been widely used for complex reasoning tasks such as ARC-AGI and Sudoku, yet the specific sources of their performance gains remain underexplored. In this work, we systematically analyze UTs variants and show that improvements on ARC-AGI primarily arise from the recurrent inductive bias and strong nonlinear components of Transformer, rather than from elaborate architectural designs. Motivated by this finding, we propose the Universal Reasoning Model (URM), which enhances the UT with short convolution and truncated backpropagation. Our approach substantially improves reasoning performance, achieving state-of-the-art 53.8% pass@1 on ARC-AGI 1 and 16.0% pass@1 on ARC-AGI 2. Our code is avaliable at https://github.com/zitian-gao/URM.
- Abstract(参考訳): ユニバーサルトランスフォーマー (UT) はARC-AGI や Sudoku のような複雑な推論タスクに広く使われているが、その性能向上の具体的な源はいまだに解明されていない。
本研究では、UTの変種を系統的に解析し、ARC-AGIの改良は、精巧なアーキテクチャ設計からではなく、Transformerの繰り返し帰納的バイアスと強い非線形成分から生じることを示す。
この発見を動機として,短い畳み込みと切り離されたバックプロパゲーションでUTを向上させるUniversal Reasoning Model (URM)を提案する。
ARC-AGI 1 では 53.8% pass@1 、ARC-AGI 2 では 16.0% pass@1 となる。
私たちのコードはhttps://github.com/zitian-gao/URM.comで無効です。
関連論文リスト
- Nemotron-Cascade: Scaling Cascaded Reinforcement Learning for General-Purpose Reasoning Models [71.9060068259379]
汎用推論モデルを構築するために,ケースド・ドメインワイド強化学習を提案する。
私たちの14Bモデルは、RLの後、LiveCodeBench v5/v6 ProでSFTの教師であるDeepSeek-R1-0528を上回り、インフォマティクスにおける2025 International Olympiad in Informatics (IOI)における銀の医療性能を上回りました。
論文 参考訳(メタデータ) (2025-12-15T18:02:35Z) - ARC-GEN: A Mimetic Procedural Benchmark Generator for the Abstraction and Reasoning Corpus [3.553493344868413]
本稿では,ARC-AGIトレーニングデータセットの拡張を目的としたオープンソースプロシージャジェネレータであるARC-GENを紹介する。
これまでの取り組みとは異なり、我々のジェネレータは(全4つのタスクをカバーしている)徹底的かつ緩和的です。
また、このジェネレータを用いて、2025年のGoogle Code Golf Championshipに応募したプログラムの正当性を検証するための静的ベンチマークスイートの確立についても論じる。
論文 参考訳(メタデータ) (2025-10-31T18:10:05Z) - Unified token representations for sequential decision models [0.07812854697536452]
本稿では,復号,状態,アクションを単一トークンにマージし,シーケンス長とモデル複雑性を大幅に低減する統一トークン表現(UTR)を提案する。
我々は,変圧器とゲートCNNのバックボーン上に構築されたUDTとUDCの2つの変種を開発した。
論文 参考訳(メタデータ) (2025-10-24T13:25:43Z) - Deepfake Detection that Generalizes Across Benchmarks [48.85953407706351]
ディープフェイク検出器の非表示操作技術への一般化は、実用的展開の課題である。
この研究は、基礎となる事前学習された視覚エンコーダのパラメータ効率適応により、ロバストな一般化が達成可能であることを示す。
提案手法は、平均的クロスデータセットAUROCにおける、より複雑な、最新のアプローチよりも優れた、最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-08-08T12:03:56Z) - ARC-NCA: Towards Developmental Solutions to the Abstraction and Reasoning Corpus [0.0]
ARC-NCAはARC-AGIベンチマークに取り組むための開発手法である。
開発ソリューションは、AIの問題解決能力を高めるための有望な道を提供するかもしれない。
論文 参考訳(メタデータ) (2025-05-13T17:55:43Z) - On the locality bias and results in the Long Range Arena [49.15148871877941]
Long Range ArenaベンチマークはTransformerの改良性能を評価するために設計された。
ステート・スペース・モデル(SSM)のような新しいアーキテクチャは、LRAのトランスフォーマーよりも優れていた。
LRAは長距離依存モデリングのベンチマークであるが、実際にはほとんどのパフォーマンスは短距離依存によるものである。
論文 参考訳(メタデータ) (2025-01-24T15:34:50Z) - Your Causal Self-Attentive Recommender Hosts a Lonely Neighborhood [25.74765016730563]
両方向/自動符号化(AE)と一方向/自動回帰(AR)の注意機構の比較分析を行った。
理論解析を支援するため,5つのベンチマークでAE/ARの注目度を比較する実験を行った。
私たちは、パフォーマンスの高いセルフアテンティブなレコメンデーションのために、将来の設計選択に光を当てました。
論文 参考訳(メタデータ) (2024-06-04T07:29:59Z) - LAMBO: Large AI Model Empowered Edge Intelligence [71.56135386994119]
次世代エッジインテリジェンスは、オフロード技術を通じて様々なアプリケーションに恩恵をもたらすことが期待されている。
従来のオフロードアーキテクチャは、不均一な制約、部分的な認識、不確実な一般化、トラクタビリティの欠如など、いくつかの問題に直面している。
我々は、これらの問題を解決するための10億以上のパラメータを持つLarge AI Model-Based Offloading (LAMBO)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:25:42Z) - Mind the Backbone: Minimizing Backbone Distortion for Robust Object
Detection [52.355018626115346]
ドメインシフトに対して堅牢なオブジェクト検出器を構築することは、現実世界のアプリケーションにとって重要なことです。
我々は,ゆがみを特徴付けるバックボーンの脆弱性を測定する手段として,相対勾配ノルム(Relative Gradient Norm)を提案する。
両バックボーンのOOD堅牢性を高めるためのレシピを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:50:43Z) - Demystify Transformers & Convolutions in Modern Image Deep Networks [80.16624587948368]
本稿では,一般のコンボリューションとアテンション演算子の真の利益を,詳細な研究により同定することを目的とする。
注意や畳み込みのようなこれらの特徴変換モジュールの主な違いは、それらの空間的特徴集約アプローチにある。
様々なSTMが統合されたフレームワークに統合され、包括的な比較分析を行う。
論文 参考訳(メタデータ) (2022-11-10T18:59:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。