論文の概要: ARC-AGI Without Pretraining
- arxiv url: http://arxiv.org/abs/2512.06104v1
- Date: Fri, 05 Dec 2025 19:17:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.188316
- Title: ARC-AGI Without Pretraining
- Title(参考訳): プレトレーニングなしARC-AGI
- Authors: Isaac Liao, Albert Gu,
- Abstract要約: 評価パズルの20%を解く事前学習のない76KパラメータモデルであるCompressARCを紹介する。
この手法はCompressARCに極度の一般化能力を与えるが、一般にディープラーニングでは耳にしない。
- 参考スコア(独自算出の注目度): 21.05897964439773
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional wisdom in the age of LLMs dictates that solving IQ-test-like visual puzzles from the ARC-AGI-1 benchmark requires capabilities derived from massive pretraining. To counter this, we introduce CompressARC, a 76K parameter model without any pretraining that solves 20% of evaluation puzzles by minimizing the description length (MDL) of the target puzzle purely during inference time. The MDL endows CompressARC with extreme generalization abilities typically unheard of in deep learning. To our knowledge, CompressARC is the only deep learning method for ARC-AGI where training happens only on a single sample: the target inference puzzle itself, with the final solution information removed. Moreover, CompressARC does not train on the pre-provided ARC-AGI "training set". Under these extremely data-limited conditions, we do not ordinarily expect any puzzles to be solvable at all. Yet CompressARC still solves a diverse distribution of creative ARC-AGI puzzles, suggesting MDL to be an alternative feasible way to produce intelligence, besides conventional pretraining.
- Abstract(参考訳): LLM時代における従来の知恵は、ARC-AGI-1ベンチマークからIQテストのような視覚パズルを解くには、大規模な事前学習から派生した能力が必要であると規定している。
これに対応するために,予測時間内にターゲットパズルの記述長(MDL)を純粋に最小化することにより,評価パズルの20%を解く事前学習のない76KパラメータモデルであるCompressARCを導入する。
MDLはCompressARCに極度の一般化能力を与えており、一般的にディープラーニングでは聞いたことがない。
我々の知る限り、CompressARCはARC-AGIの唯一の深層学習手法であり、トレーニングは1つのサンプルでのみ行われる。
さらに、CompressARCは、事前に提案されたARC-AGIの「トレーニングセット」をトレーニングしていない。
このような極めてデータ制限のある条件下では、通常、パズルが解けるとは期待しない。
しかし、CompressARCはいまだに創造的なARC-AGIパズルの多様な分布を解決しており、従来の事前学習の他に、MDLがインテリジェンスを生み出すための代替可能な方法であることを示唆している。
関連論文リスト
- Think Visually, Reason Textually: Vision-Language Synergy in ARC [94.15522924153264]
ARC-AGIは、概念ルールの誘導と新しいタスクへの転送のための厳格なテストベッドである。
既存のほとんどの手法は、ARC-AGIを純粋にテキストによる推論タスクとして扱い、人間が視覚的抽象化に強く依存しているという事実を見落としている。
VLSR(Vision-Language Synergy Reasoning)とMSSC(Modality-Switch Self-Correction)の2つの相乗的戦略を導入する。
本研究は,視覚的抽象と言語的推論を一体化させることが,汎用的な人間的な知性を実現するための重要なステップであることを示唆している。
論文 参考訳(メタデータ) (2025-11-19T18:59:04Z) - ARC Is a Vision Problem! [50.59206008530851]
視覚パラダイム内のARCを画像から画像への変換問題として定義する。
私たちのフレームワークであるVision ARCは、ARC-1ベンチマークで60.4%の精度を実現しています。
論文 参考訳(メタデータ) (2025-11-18T18:59:49Z) - Vector Symbolic Algebras for the Abstraction and Reasoning Corpus [1.2031796234206134]
ARC-AGIは、数発の流体インテリジェンスベンチマークである。
認知学的に妥当なARC-AGIソルバを提案する。
システム1の直観とシステム2の推論を統合する。
論文 参考訳(メタデータ) (2025-11-11T20:07:50Z) - Hierarchical Self-Supervised Representation Learning for Depression Detection from Speech [51.14752758616364]
音声による抑うつ検出 (SDD) は、従来の臨床評価に代わる有望で非侵襲的な代替手段である。
HAREN-CTCは,マルチタスク学習フレームワーク内でのクロスアテンションを用いて,多層SSL機能を統合した新しいアーキテクチャである。
このモデルはDAIC-WOZで0.81、MODMAで0.82の最先端マクロF1スコアを達成し、両方の評価シナリオで先行手法より優れている。
論文 参考訳(メタデータ) (2025-10-05T09:32:12Z) - Don't throw the baby out with the bathwater: How and why deep learning for ARC [4.354364351426983]
ARC-AGI(Abstraction and Reasoning)は、AIシステムにとって非常に難しい課題である。
本稿では, ARC の事前学習から始まった ARC の学習手法を提案し, ARC の推論を改良する。
AIRVでは最大260%の精度で,TTFTではさらに300%の精度で深層学習を効果的に活用できることを示す。
論文 参考訳(メタデータ) (2025-06-17T07:40:39Z) - ARC-NCA: Towards Developmental Solutions to the Abstraction and Reasoning Corpus [0.0]
ARC-NCAはARC-AGIベンチマークに取り組むための開発手法である。
開発ソリューションは、AIの問題解決能力を高めるための有望な道を提供するかもしれない。
論文 参考訳(メタデータ) (2025-05-13T17:55:43Z) - Generalized Planning for the Abstraction and Reasoning Corpus [10.377424252002795]
GPAR(Generalized Planning for Abstract Reasoning)を提案する。
ARC問題を一般化計画(GP)問題とみなし、解はポインタを持つ計画プログラムとして形式化される。
本稿では,行動モデル,述語,議論,計画プログラムの有効な構造に対する制約という形で,ARC特有のドメイン知識を用いてGPソルバをスケールアップする方法を示す。
論文 参考訳(メタデータ) (2024-01-15T02:25:00Z) - DCR: Divide-and-Conquer Reasoning for Multi-choice Question Answering with LLMs [9.561022942046279]
大規模言語モデル(LLM)の推論能力を高めるため,DCR(Divide and Conquer Reasoning)を提案する。
まず、信頼性スコア(mathcalCS$)に基づいて質問を2つのサブセットに分類する。
特に,質問を信頼性スコア(mathcalCS$)に基づいて2つのサブセットに分類する。
論文 参考訳(メタデータ) (2024-01-10T14:38:46Z) - LLMs and the Abstraction and Reasoning Corpus: Successes, Failures, and
the Importance of Object-based Representations [50.431003245201644]
GPT-4 は 1D-ARC や単純な ARC サブセットのような非言語領域で完全に「推論」できないことを示す。
本稿では,外部ツールから得られるオブジェクトベース表現を提案する。これにより,解決されたARCタスクのパフォーマンスがほぼ倍増し,より簡単な1D-ARC上でのほぼ完璧なスコアが得られた。
論文 参考訳(メタデータ) (2023-05-26T16:32:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。