論文の概要: Reasoning is a Modality
- arxiv url: http://arxiv.org/abs/2601.13562v1
- Date: Tue, 20 Jan 2026 03:37:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.140254
- Title: Reasoning is a Modality
- Title(参考訳): 推論はモダリティである
- Authors: Zhiguang Liu, Yi Shang,
- Abstract要約: 人間の知性に中心的な能力である抽象的推論を研究する。
現代のAIシステムは、行動予測マシンとして動作する。
人間は内部状態の復号化によって行動を説明することができ、一方AIシステムは流動的なポストホックな合理化を生成することができる。
- 参考スコア(独自算出の注目度): 4.055765634948606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Abstraction and Reasoning Corpus (ARC) provides a compact laboratory for studying abstract reasoning, an ability central to human intelligence. Modern AI systems, including LLMs and ViTs, largely operate as sequence-of-behavior prediction machines: they match observable behaviors by modeling token statistics without a persistent, readable mental state. This creates a gap with human-like behavior: humans can explain an action by decoding internal state, while AI systems can produce fluent post-hoc rationalizations that are not grounded in such a state. We hypothesize that reasoning is a modality: reasoning should exist as a distinct channel separate from the low-level workspace on which rules are applied. To test this hypothesis, on solving ARC tasks as a visual reasoning problem, we designed a novel role-separated transformer block that splits global controller tokens from grid workspace tokens, enabling iterative rule execution. Trained and evaluated within the VARC vision-centric protocol, our method achieved 62.6% accuracy on ARC-1, surpassing average human performance (60.2%) and outperforming prior methods significantly. Qualitatively, our models exhibit more coherent rule-application structure than the dense ViT baseline, consistent with a shift away from plausible probability blobs toward controller-driven reasoning.
- Abstract(参考訳): ARC(Abstraction and Reasoning Corpus)は、抽象的推論を研究するためのコンパクトな実験室を提供する。
LLMやViTといった現代のAIシステムは、主に行動予測マシンとして機能し、永続的で読みやすい精神状態のないトークン統計をモデル化することで、観測可能な振る舞いにマッチする。
人間は内部状態を復号することで行動を説明することができ、一方AIシステムはそのような状態に根ざしていない流動的なポストホックな合理化を生成することができる。
推論は、ルールが適用される低レベルなワークスペースとは別個のチャネルとして存在すべきである。
この仮説をテストするために、ARCタスクを視覚的推論問題として解くことにより、グローバルコントローラトークンをグリッドワークスペーストークンから分割し、反復ルール実行を可能にするロール分離トランスフォーマーブロックを設計した。
VARCビジョン中心のプロトコルでトレーニングされ評価され、提案手法はARC-1上で62.6%の精度を達成し、平均的な人的性能(60.2%)を超え、先行手法を著しく上回った。
定性的には、我々のモデルは、高密度なViTベースラインよりも一貫性のあるルール適用構造を示し、可算確率ブロブからコントローラ駆動推論へのシフトと一致する。
関連論文リスト
- Bridging Symbolic Control and Neural Reasoning in LLM Agents: The Structured Cognitive Loop [0.0]
エージェント認知を,検索,認知,制御,行動,記憶の5段階に分けたモジュール型アーキテクチャであるStructured Cognitive Loop (SCL)を導入する。
SCLの中核であるSoft Symbolic Controlは、確率的推論にシンボリック制約を適用する適応的なガバナンスメカニズムである。
我々は,ライブGPT-4oによる旅行計画エージェントとともに,R-CCAMループアーキテクチャを実演する完全なオープンソース実装を提供する。
論文 参考訳(メタデータ) (2025-11-21T05:19:34Z) - Think Visually, Reason Textually: Vision-Language Synergy in ARC [94.15522924153264]
ARC-AGIは、概念ルールの誘導と新しいタスクへの転送のための厳格なテストベッドである。
既存のほとんどの手法は、ARC-AGIを純粋にテキストによる推論タスクとして扱い、人間が視覚的抽象化に強く依存しているという事実を見落としている。
VLSR(Vision-Language Synergy Reasoning)とMSSC(Modality-Switch Self-Correction)の2つの相乗的戦略を導入する。
本研究は,視覚的抽象と言語的推論を一体化させることが,汎用的な人間的な知性を実現するための重要なステップであることを示唆している。
論文 参考訳(メタデータ) (2025-11-19T18:59:04Z) - Efficient Thought Space Exploration through Strategic Intervention [54.35208611253168]
本稿では,この知見を2つの相乗的コンポーネントを通して操作するHint-Practice Reasoning(HPR)フレームワークを提案する。
フレームワークの中核となる革新は、動的に介入点を識別する分散不整合低減(DIR)である。
算術的および常識的推論ベンチマークによる実験は、HPRの最先端の効率-精度トレードオフを実証している。
論文 参考訳(メタデータ) (2025-11-13T07:26:01Z) - Reasoning Pattern Matters: Learning to Reason without Human Rationales [27.684703630371043]
大規模言語モデル(LLM)は、広く採用されているSFT+RLVRパラダイムの下で顕著な推論能力を示している。
本稿では,推論性能を損なうことなく,合理的アノテーションのコストを大幅に削減する方法について検討する。
論文 参考訳(メタデータ) (2025-10-14T15:34:38Z) - A Study of Rule Omission in Raven's Progressive Matrices [0.0]
分析的推論は人間の認知の中核にあり、人工知能の根本的な課題である。
本研究では、不完全学習条件下での現代AIシステムの一般化能力について検討する。
実験により、変圧器は慣れ親しんだ規則に対して強い性能を示すが、新しい規則や省略規則に直面すると、その精度は急激に低下することが明らかとなった。
論文 参考訳(メタデータ) (2025-10-03T15:53:28Z) - Let LRMs Break Free from Overthinking via Self-Braking Tuning [68.93713497579853]
大きな推論モデル(LRM)は思考の長い連鎖を生成することによって推論能力を著しく向上させた。
この性能向上は、生成プロセス中の冗長な推論を大幅に増加させるコストが伴う。
本稿では、モデルが独自の推論プロセスを制御することを許容する観点から、過度に検討する新しいフレームワーク、Self-Braking Tuning(SBT)を提案する。
論文 参考訳(メタデータ) (2025-05-20T16:53:40Z) - Generalising from Self-Produced Data: Model Training Beyond Human Constraints [0.0]
本稿では,AIモデルが新たな知識を自律的に生成し,検証する新しい枠組みを提案する。
このアプローチの中心は、人間のベンチマークを必要とせずに学習をガイドする、無制限で使い捨ての数値報酬である。
論文 参考訳(メタデータ) (2025-04-07T03:48:02Z) - An Information Bottleneck Approach for Controlling Conciseness in
Rationale Extraction [84.49035467829819]
我々は,情報ボトルネック(IB)の目的を最適化することで,このトレードオフをよりよく管理できることを示す。
我々の完全教師なしのアプローチは、文上のスパース二項マスクを予測する説明器と、抽出された合理性のみを考慮したエンドタスク予測器を共同で学習する。
論文 参考訳(メタデータ) (2020-05-01T23:26:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。