論文の概要: INDUCTION: Finite-Structure Concept Synthesis in First-Order Logic
- arxiv url: http://arxiv.org/abs/2602.18956v1
- Date: Sat, 21 Feb 2026 21:21:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.416046
- Title: INDUCTION: Finite-Structure Concept Synthesis in First-Order Logic
- Title(参考訳): 導出:一階論理における有限構造概念合成
- Authors: Serafim Batzoglou,
- Abstract要約: 拡張ラベル付き対象述語を持つ小さな有限リレーショナル世界が与えられると、モデルは、その対象を全世界で均一に説明する1階の論理式を出力しなければならない。
急激な難易度勾配, 永続的な硬い構造族を見いだし, 低肥大化の公式が保留世界をはるかに良く一般化するのを観察した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce INDUCTION, a benchmark for finite structure concept synthesis in first order logic. Given small finite relational worlds with extensionally labeled target predicates, models must output a single first order logical formula that explains the target uniformly across worlds, with correctness verified via exact model checking. The benchmark includes three regimes, FullObs, CI (contrastive), and EC (existential completion), nd penalizes formula bloat. We find sharp difficulty gradients, persistent hard structural families, and observe that low bloat formulas generalize far better on held out worlds. Elite recent models show qualitatively different behaviors across tasks and performance metrics, hinting to their different strategies of concept generalization.
- Abstract(参考訳): 本稿では,一階述語論理における有限構造概念合成のベンチマークであるINDUCTIONを紹介する。
拡張ラベル付き対象述語を持つ小さな有限リレーショナル世界が与えられると、モデルは単一の一階論理式を出力しなければならない。
ベンチマークには、FullObs、CI(Contrastive)、EC(existential completion)の3つのレギュレーションが含まれている。
急激な難易度勾配, 永続的な硬い構造族を見いだし, 低肥大化の公式が保留世界をはるかに良く一般化するのを観察した。
最近のモデルでは、タスクとパフォーマンスメトリクスの質的に異なる振る舞いを示し、概念一般化の異なる戦略を示唆している。
関連論文リスト
- On the Out-of-Distribution Generalization of Reasoning in Multimodal LLMs for Simple Visual Planning Tasks [56.98385132295952]
簡単な計画課題において,チェーン・オブ・ソート・アプローチがいかに一般化するかを評価する。
複数のテキスト形式を組み合わせた推論トレースが、最高の(かつ非自明な)OOD一般化をもたらすことが分かりました。
純粋にテキストベースのモデルは、画像ベースの入力を利用するモデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2026-02-17T09:51:40Z) - CoTZero: Annotation-Free Human-Like Vision Reasoning via Hierarchical Synthetic CoT [9.44589968698834]
CoTZeroはアノテーションなしのパラダイムで、2つのコンポーネントがある。
CoTZeroは視覚的プリミティブを抽出し、構造化された質問推論形式に構成する。
合成されたCoTデータに基づいて構築された認知対応トレーニングコンポーネントでは,認知的コヒーレントな検証リワードを導入する。
論文 参考訳(メタデータ) (2026-02-09T07:26:40Z) - Do It for HER: First-Order Temporal Logic Reward Specification in Reinforcement Learning (Extended Version) [49.462399222747024]
本研究では,大規模状態空間を持つ決定過程(MDP)における非マルコフ報酬の論理的仕様に関する新しい枠組みを提案する。
我々のアプローチは有限トレース(LTLfMT)上での線形時間論理モデュロ理論を利用する
本稿では,報酬マシンとHER(Hindsight Experience Replay)をベースとした一階述語論理仕様の翻訳手法を提案する。
論文 参考訳(メタデータ) (2026-02-05T22:11:28Z) - ARCHE: A Novel Task to Evaluate LLMs on Latent Reasoning Chain Extraction [70.53044880892196]
本稿では、複雑な推論引数を標準推論パラダイムの組み合わせに分解し、Reasoning Logic Tree (RLT) という形で分解しなければならない、ARCHE(Latent Reasoning Chain extract)という新しいタスクを紹介する。
この作業を容易にするために,我々は,1,900以上の参照と38,000の視点を含む70のNature Communicationsの記事から得られた新しいベンチマークであるARCHE Benchをリリースする。
ARCHE Bench上での10のLLMの評価では、モデルがREAとECのトレードオフを示しており、完全な標準推論チェーンを抽出することはできません。
論文 参考訳(メタデータ) (2025-11-16T07:37:09Z) - Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models [57.42778606399764]
拡散言語モデル(dLLM)は、テキスト生成に有望で非自己回帰的なパラダイムを提供する。
現在の強化学習アプローチは、しばしばスパースで結果に基づく報酬に頼っている。
これは推論の自然な構造との根本的なミスマッチに由来すると我々は主張する。
論文 参考訳(メタデータ) (2025-10-02T00:34:15Z) - Principled Out-of-Distribution Generalization via Simplicity [16.17883058788714]
画像生成における拡散モデルの合成一般化能力について検討する。
我々は,事前定義された簡易度を用いて定量化した簡易度によるOOD一般化の理論的枠組みを開発する。
我々は、真の、一般化可能な、単純なモデルを学ぶための、最初の鋭いサンプル複雑性を保証する。
論文 参考訳(メタデータ) (2025-05-28T17:44:10Z) - On the Diagram of Thought [20.805936414171892]
大規模言語モデル(LLM)は多くのタスクで優れているが、構造化された多段階の推論を必要とする複雑な問題に悩まされることが多い。
思考のダイアグラム(Diagram of Thought, DoT)は、1つのLCMがその推論のメンタルマップを構築し、ナビゲートすることを可能にする新しいフレームワークである。
論文 参考訳(メタデータ) (2024-09-16T07:01:41Z) - ExpressivE: A Spatio-Functional Embedding For Knowledge Graph Completion [78.8942067357231]
ExpressivEは、一対の実体を点として埋め込み、仮想三重空間に超平行グラフとして関係を埋め込む。
我々は、ExpressivEが最先端のKGEと競合し、W18RRでさらに優れています。
論文 参考訳(メタデータ) (2022-06-08T23:34:39Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。