論文の概要: ARCTraj: A Dataset and Benchmark of Human Reasoning Trajectories for Abstract Problem Solving
- arxiv url: http://arxiv.org/abs/2511.11079v2
- Date: Mon, 17 Nov 2025 03:11:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.592623
- Title: ARCTraj: A Dataset and Benchmark of Human Reasoning Trajectories for Abstract Problem Solving
- Title(参考訳): ARCTraj:抽象問題解決のための人間推論軌道のデータセットとベンチマーク
- Authors: Sejin Kim, Hayan Choi, Seokki Lee, Sundong Kim,
- Abstract要約: 本稿では、複雑な視覚的タスクを通して人間の推論をモデル化するためのデータセットと方法論のフレームワークであるARCTrajを提案する。
ARCTrajは、人間が入力を出力に反復的に変換する方法をキャプチャする、時間的に順序付けられたオブジェクトレベルのアクションを記録することでギャップに対処する。
さらに、データ収集、アクション抽象化、マルコフ決定プロセス(MDP)の定式化、下流学習を含む統一推論パイプラインを定義する。
- 参考スコア(独自算出の注目度): 5.7688835899861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present ARCTraj, a dataset and methodological framework for modeling human reasoning through complex visual tasks in the Abstraction and Reasoning Corpus (ARC). While ARC has inspired extensive research on abstract reasoning, most existing approaches rely on static input--output supervision, which limits insight into how reasoning unfolds over time. ARCTraj addresses this gap by recording temporally ordered, object-level actions that capture how humans iteratively transform inputs into outputs, revealing intermediate reasoning steps that conventional datasets overlook. Collected via the O2ARC web interface, it contains around 10,000 trajectories annotated with task identifiers, timestamps, and success labels across 400 training tasks from the ARC-AGI-1 benchmark. It further defines a unified reasoning pipeline encompassing data collection, action abstraction, Markov decision process (MDP) formulation, and downstream learning, enabling integration with reinforcement learning, generative modeling, and sequence modeling methods such as PPO, World Models, GFlowNets, Diffusion agents, and Decision Transformers. Analyses of spatial selection, color attribution, and strategic convergence highlight the structure and diversity of human reasoning. Together, these contributions position ARCTraj as a structured and interpretable foundation for studying human-like reasoning, advancing explainability, alignment, and generalizable intelligence.
- Abstract(参考訳): 本稿では、抽象推論コーパス(ARC)における複雑な視覚的タスクを通して、人間の推論をモデル化するためのデータセットおよび方法論のフレームワークであるARCTrajについて述べる。
ARCは抽象的推論に関する広範な研究にインスピレーションを与えたが、既存のほとんどのアプローチは静的なインプット・アウトプットの監視に依存しており、推論が時間とともにどのように展開するかについての洞察を制限している。
ARCTrajはこのギャップに対処するため、時間的に順序付けられたオブジェクトレベルのアクションを記録し、人間が入力を出力に反復的に変換する方法をキャプチャし、従来のデータセットが見落としている中間的推論ステップを明らかにする。
O2ARC Webインターフェース経由で収集されたこのツールには、タスク識別子、タイムスタンプ、ARC-AGI-1ベンチマークから400のトレーニングタスクにわたる成功ラベルがアノテートされた約10,000のトラジェクトリが含まれている。
さらに、データ収集、アクション抽象化、マルコフ決定プロセス(MDP)の定式化、下流学習を含む統一推論パイプラインを定義し、強化学習、生成モデリング、PPO、World Models、GFlowNets、Diffusion Agent、Decision Transformersといったシーケンスモデリングメソッドとの統合を可能にする。
空間選択、色属性、戦略的収束の分析は、人間の推論の構造と多様性を強調している。
これらの貢献により、ARCTrajは人間のような推論、説明可能性、アライメント、一般化可能な知性を研究するための構造化され解釈可能な基盤として位置づけられた。
関連論文リスト
- GIFARC: Synthetic Dataset for Leveraging Human-Intuitive Analogies to Elevate AI Reasoning [7.09254962218677]
最先端モデルは2024年のARCコンペティションで40-55%の精度しか達成していない。
本稿では、類似に着想を得たARCデータセットGIFARCを紹介する。
GIFARCは、ブルートフォースパターン検索に参加する前に、AIエージェントがタスクを類似的に評価するように誘導する。
論文 参考訳(メタデータ) (2025-05-27T03:42:51Z) - Tackling the Abstraction and Reasoning Corpus with Vision Transformers: the Importance of 2D Representation, Positions, and Objects [31.926206783846144]
視覚変換器(ViT)は、タスク毎に100万のサンプルをトレーニングしても、ほとんどのARCタスクで劇的に失敗することを示す。
ARCに必要な視覚的推論能力のいくつかを解放する,ViTARC スタイルのアーキテクチャを提案する。
タスク固有のViTARCモデルは、400のパブリックARCタスクの半数以上において、100%に近い確率で解決できる。
論文 参考訳(メタデータ) (2024-10-08T22:25:34Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Neural Constraint Satisfaction: Hierarchical Abstraction for
Combinatorial Generalization in Object Rearrangement [75.9289887536165]
基礎となるエンティティを明らかにするための階層的抽象化手法を提案する。
本研究では,エージェントのモデルにおける実体の状態の介入と,環境中の物体に作用する状態の対応関係を学習する方法を示す。
この対応を利用して、オブジェクトの異なる数や構成に一般化する制御法を開発する。
論文 参考訳(メタデータ) (2023-03-20T18:19:36Z) - Bridging the Gap to Real-World Object-Centric Learning [66.55867830853803]
自己教師付き方法で訓練されたモデルから特徴を再構成することは、完全に教師なしの方法でオブジェクト中心表現が生じるための十分な訓練信号であることを示す。
我々のアプローチであるDINOSAURは、シミュレーションデータ上で既存のオブジェクト中心学習モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-09-29T15:24:47Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Representation-Centric Survey of Skeletal Action Recognition and the ANUBIS Benchmark [43.00059447663327]
3Dスケルトンに基づく人間の行動認識は、従来のRGBや深さに基づくアプローチの強力な代替手段として登場した。
目覚ましい進歩にもかかわらず、現在の研究は様々な入力表現で断片化されている。
ANUBISは、既存のベンチマークで重要なギャップに対処するために設計された、大規模で挑戦的なスケルトンアクションデータセットである。
論文 参考訳(メタデータ) (2022-05-04T14:03:43Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Cross-Supervised Joint-Event-Extraction with Heterogeneous Information
Networks [61.950353376870154]
Joint-event- Extractは、トリガとエンティティのタグからなるタグセットを備えたシーケンスからシーケンスまでのラベリングタスクである。
トリガやエンティティの抽出を交互に監督するクロススーパーバイザードメカニズム(CSM)を提案する。
我々の手法は、エンティティとトリガー抽出の両方において最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-10-13T11:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。