論文の概要: CausalARC: Abstract Reasoning with Causal World Models
- arxiv url: http://arxiv.org/abs/2509.03636v1
- Date: Wed, 03 Sep 2025 18:37:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:09.94306
- Title: CausalARC: Abstract Reasoning with Causal World Models
- Title(参考訳): CausalARC: 因果世界モデルによる抽象推論
- Authors: Jacqueline Maasch, John Kalantari, Kia Khezeli,
- Abstract要約: CausalARCは、低データおよびアウト・オブ・ディストリビューション体制におけるAI推論の実験的なテストベッドである。
それぞれのCausalARC推論タスクは、完全に指定された因果世界モデルからサンプリングされる。
- 参考スコア(独自算出の注目度): 0.8793721044482612
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reasoning requires adaptation to novel problem settings under limited data and distribution shift. This work introduces CausalARC: an experimental testbed for AI reasoning in low-data and out-of-distribution regimes, modeled after the Abstraction and Reasoning Corpus (ARC). Each CausalARC reasoning task is sampled from a fully specified causal world model, formally expressed as a structural causal model. Principled data augmentations provide observational, interventional, and counterfactual feedback about the world model in the form of few-shot, in-context learning demonstrations. As a proof-of-concept, we illustrate the use of CausalARC for four language model evaluation settings: (1) abstract reasoning with test-time training, (2) counterfactual reasoning with in-context learning, (3) program synthesis, and (4) causal discovery with logical reasoning.
- Abstract(参考訳): 推論は、限られたデータと分散シフトの下での、新しい問題設定に適応する必要がある。
この研究で紹介されたCausalARCは、低データおよびアウト・オブ・ディストリビューション体制におけるAI推論のための実験的なテストベッドで、ARC(Abstraction and Reasoning Corpus)をモデルにしている。
それぞれのCausalARC推論タスクは、完全に指定された因果世界モデルからサンプリングされ、構造因果モデルとして正式に表現される。
原則化されたデータ拡張は、数発のインコンテキスト学習デモという形で、世界モデルに関する観察的、介入的、および反ファクト的フィードバックを提供する。
概念実証として,(1)テスト時間トレーニングによる抽象的推論,(2)コンテキスト内学習による対実的推論,(3)プログラム合成,(4)論理的推論による因果的発見の4つの言語モデル評価設定におけるCausalARCの使用について述べる。
関連論文リスト
- Causal Distillation: Transferring Structured Explanations from Large to Compact Language Models [0.0]
大規模なプロプライエタリな言語モデルは、小さなオープンソースモデルでは複製が困難である強力な因果推論能力を示している。
本稿では,強力な教師モデルからコンパクトなオープンソースモデルへ因果推論スキルを伝達する因果説明を蒸留する新しい枠組みを提案する。
鍵となる考え方は、教師モデルと整合した構造的原因・効果説明を生成することにより、因果推論能力を向上させるために、より小さなモデルを訓練することである。
論文 参考訳(メタデータ) (2025-05-26T04:50:42Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Targeted Reduction of Causal Models [55.11778726095353]
因果表現学習(Causal Representation Learning)は、シミュレーションで解釈可能な因果パターンを明らかにするための有望な道を提供する。
本稿では、複雑な相互作用可能なモデルを因果因子の簡潔な集合に凝縮する方法であるTCR(Targeted Causal Reduction)を紹介する。
複雑なモデルから解釈可能な高レベルな説明を生成する能力は、玩具や機械システムで実証されている。
論文 参考訳(メタデータ) (2023-11-30T15:46:22Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - Learning a Structural Causal Model for Intuition Reasoning in
Conversation [20.243323155177766]
NLP研究の重要な側面である推論は、一般的なモデルによって適切に対処されていない。
我々は、各発話がどのように情報チャネルを受信し、活性化するかを説明する会話認知モデル(CCM)を開発した。
変分推論を利用することで、暗黙的な原因の代用を探索し、その観測不可能性の問題に対処し、証拠の低い境界を通して発話の因果表現を再構築する。
論文 参考訳(メタデータ) (2023-05-28T13:54:09Z) - Causal Abstraction: A Theoretical Foundation for Mechanistic Interpretability [30.76910454663951]
因果抽象化は機械的解釈可能性の理論的基盤を提供する。
我々の貢献は、メカニズム置換から任意のメカニズム変換への因果的抽象化の理論の一般化である。
論文 参考訳(メタデータ) (2023-01-11T20:42:41Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Towards Interpretable Reasoning over Paragraph Effects in Situation [126.65672196760345]
我々は,原因と効果を理解するためのモデルを必要とする状況において,段落効果を推論する作業に焦点をあてる。
本稿では,ニューラルネットワークモジュールを用いた推論プロセスの各ステップを明示的にモデル化する逐次的手法を提案する。
特に、5つの推論モジュールはエンドツーエンドで設計され、学習され、より解釈可能なモデルにつながる。
論文 参考訳(メタデータ) (2020-10-03T04:03:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。