論文の概要: Exploring Human Behavior During Abstract Rule Inference and Problem Solving with the Cognitive Abstraction and Reasoning Corpus
- arxiv url: http://arxiv.org/abs/2602.22408v1
- Date: Wed, 25 Feb 2026 21:01:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.408672
- Title: Exploring Human Behavior During Abstract Rule Inference and Problem Solving with the Cognitive Abstraction and Reasoning Corpus
- Title(参考訳): 抽象的ルール推論と認知的抽象化と推論コーパスによる問題解決における人間の行動探索
- Authors: Caroline Ahn, Quan Do, Leah Bakst, Michael P. Pascale, Joseph T. McGuire, Michael E. Hasselmo, Chantal E. Stern,
- Abstract要約: 人間は抽象的推論において顕著な柔軟性を示し、緩やかな例から素早く学習し、規則を適用することができる。
抽象・推論コーパス(ARC)の多種多様な人間適応サブセットである認知抽象・推論コーパス(CogARC)を紹介する。
CogARCは、75の抽象的な視覚的推論問題に対する解を自由に生成する260人の参加者に投与された。
- 参考スコア(独自算出の注目度): 0.32834818175343855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans exhibit remarkable flexibility in abstract reasoning, and can rapidly learn and apply rules from sparse examples. To investigate the cognitive strategies underlying this ability, we introduce the Cognitive Abstraction and Reasoning Corpus (CogARC), a diverse human-adapted subset of the Abstraction and Reasoning Corpus (ARC) which was originally developed to benchmark abstract reasoning in artificial intelligence. Across two experiments, CogARC was administered to a total of 260 human participants who freely generated solutions to 75 abstract visual reasoning problems. Success required inferring input-output rules from a small number of examples to transform the test input into one correct test output. Participants' behavior was recorded at high temporal resolution, including example viewing, edit sequences, and multi-attempt submissions. Participants were generally successful (mean accuracy ~90% for experiment 1 (n=40), ~80% for experiment 2 (n=220) across problems), but performance varied widely across problems and participants. Harder problems elicited longer deliberation times and greater divergence in solution strategies. Over the course of the task, participants initiated responses more quickly but showed a slight decline in accuracy, suggesting increased familiarity with the task structure rather than improved rule-learning ability. Importantly, even incorrect solutions were often highly convergent, even when the problem-solving trajectories differed in length and smoothness. Some trajectories progressed directly and efficiently toward a stable outcome, whereas others involved extended exploration or partial restarts before converging. Together, these findings highlight CogARC as a rich behavioral environment for studying human abstract reasoning, providing insight into how people generalize, misgeneralize, and adapt their strategies under uncertainty.
- Abstract(参考訳): 人間は抽象的推論において顕著な柔軟性を示し、緩やかな例から素早く学習し、規則を適用することができる。
この能力の根底にある認知的戦略を検討するために、人工知能の抽象的推論をベンチマークするために開発されたARC(Abstraction and Reasoning Corpus)の多様な人間適応サブセットであるCogARC(CogARC)を紹介した。
2つの実験で、CagARCは75の抽象的な視覚的推論問題に対する解を自由に生成する合計260人の被験者に投与された。
テスト入力を1つの正しいテスト出力に変換するためには、少数の例から入力出力ルールを推論する必要がある。
参加者の行動は高時間分解能で記録され、例えば、視聴、編集シーケンス、多目的投稿などが記録された。
参加者は一般に成功(実験1(n=40)、実験2(n=220)の90%)したが、その性能は問題や参加者によって広範囲に及んだ。
より難しい問題は、長い熟考時間と解法戦略の分岐を招いた。
課題の間、参加者はより迅速に反応を開始したが、精度はわずかに低下し、ルール学習能力の向上よりもタスク構造への親しみが増したことを示唆した。
重要なことに、問題解の軌跡が長さと滑らかさで異なる場合でも、誤った解でさえしばしば非常に収束していた。
いくつかの軌道は直接的かつ効率的に安定した結果に向かって進行し、他の軌道は収束する前に探査や部分的な再起動を行った。
これらの知見と共に、CagARCは人間の抽象的推論を研究するための豊かな行動環境であり、人々が不確実性の下でどのように戦略を一般化し、一般化し、適応するかについての洞察を提供する。
関連論文リスト
- From Meta-Thought to Execution: Cognitively Aligned Post-Training for Generalizable and Reliable LLM Reasoning [5.703029996279753]
現在のポストトレーニング手法は、人間が実際にどのように問題を解決するかと一致しない。
本研究では,2段階の認知過程を明示的に反映した認知に着想を得た枠組みを提案する。
論文 参考訳(メタデータ) (2026-01-29T16:00:48Z) - Cognitive Foundations for Reasoning and Their Manifestation in LLMs [63.12951576410617]
大規模言語モデル(LLM)は複雑な問題を解くが、単純な変種では失敗し、人間の推論と根本的に異なるメカニズムによって正しい出力を達成することを示唆している。
我々は認知科学研究を、推論不変量、メタ認知制御、推論と知識の組織化のための表現、変換操作にまたがる28の認知要素の分類学に合成する。
複雑な問題に対して66.7%の性能向上を図り、成功構造を自動的に把握するテストタイム推論ガイダンスを開発した。
論文 参考訳(メタデータ) (2025-11-20T18:59:00Z) - RLAD: Training LLMs to Discover Abstractions for Solving Reasoning Problems [98.98963933669751]
問題が発生したら、複数の抽象化を提案できるモデルをトレーニングし、続いてソリューション構築のインセンティブを与えるRLを作ります。
この結果、RLトレーニングパラダイムはRLADと呼ばれ、抽象化ジェネレータとソリューションジェネレータを共同で訓練する。
我々は、大規模なテスト予算で多くのソリューションを生成するよりも、より多くのテスト時間計算を抽象化の生成に割り当てることが、パフォーマンスに有益であることを示しています。
論文 参考訳(メタデータ) (2025-10-02T17:44:23Z) - ARise: Towards Knowledge-Augmented Reasoning via Risk-Adaptive Search [46.7782420285593]
ARiseは動的検索強化生成(RAG)と中間的推論状態のリスクアセスメントを統合する新しいフレームワークである
実験の結果、ARiseは最先端のKAR法を最大23.10%上回った。
論文 参考訳(メタデータ) (2025-04-15T06:06:50Z) - Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs [86.79757571440082]
OpenAIのo1のような大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な能力を示している。
我々は、o1-like LLMがしばしば異なる理性的思考を切り替える、という現象を特定する。
本稿では,思考間の早期移行を回避できる思考切替ペナルティTIPを用いた復号戦略を提案する。
論文 参考訳(メタデータ) (2025-01-30T18:58:18Z) - You Only Live Once: Single-Life Reinforcement Learning [124.1738675154651]
多くの現実世界の状況では、そのタスクを繰り返し実行できるポリシーを学ぶことではなく、単一のトライアルで1回だけ新しいタスクを成功させることが目的である。
エージェントが介入なしにひとつのエピソード内でタスクを完了しなければならない問題設定を形式化する。
本稿では,分散マッチング戦略を用いたQ$-weighted adversarial Learning (QWALE)を提案する。
論文 参考訳(メタデータ) (2022-10-17T09:00:11Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Fast and flexible: Human program induction in abstract reasoning tasks [14.24200473508597]
ARC(1000点中40点)からタスクのサブセットを解く人間の行動研究から収集された最初の結果について報告する。
実験の結果,人間は基礎となるプログラムを推測し,新しいテスト入力例の正しいテスト出力を生成することができた。
以上の結果から,タスクの関連する特徴や特性を迅速かつ確実に決定し,正しいソリューションを作成できることが示唆された。
論文 参考訳(メタデータ) (2021-03-10T02:18:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。