論文の概要: Learning Guided Automated Reasoning: A Brief Survey
- arxiv url: http://arxiv.org/abs/2403.04017v1
- Date: Wed, 6 Mar 2024 19:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 16:06:46.851192
- Title: Learning Guided Automated Reasoning: A Brief Survey
- Title(参考訳): 学習ガイドによる自動推論: 簡単な調査
- Authors: Lasse Blaauwbroek, David Cerna, Thibault Gauthier, Jan Jakub\r{u}v,
Cezary Kaliszyk, Martin Suda, Josef Urban
- Abstract要約: これまでに開発されてきたいくつかの自動推論・定理証明領域と学習・AI手法の概要について概説する。
これには、前提選択、いくつかの設定での証明ガイダンス、推論と学習を繰り返すフィードバックループ、象徴的な分類問題が含まれる。
- 参考スコア(独自算出の注目度): 5.607616497275423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated theorem provers and formal proof assistants are general reasoning
systems that are in theory capable of proving arbitrarily hard theorems, thus
solving arbitrary problems reducible to mathematics and logical reasoning. In
practice, such systems however face large combinatorial explosion, and
therefore include many heuristics and choice points that considerably influence
their performance. This is an opportunity for trained machine learning
predictors, which can guide the work of such reasoning systems. Conversely,
deductive search supported by the notion of logically valid proof allows one to
train machine learning systems on large reasoning corpora. Such bodies of proof
are usually correct by construction and when combined with more and more
precise trained guidance they can be boostrapped into very large corpora, with
increasingly long reasoning chains and possibly novel proof ideas. In this
paper we provide an overview of several automated reasoning and theorem proving
domains and the learning and AI methods that have been so far developed for
them. These include premise selection, proof guidance in several settings, AI
systems and feedback loops iterating between reasoning and learning, and
symbolic classification problems.
- Abstract(参考訳): 自動定理プロバー(automated theorem provers)と形式証明アシスタント(formal proof assistants)は、理論上任意に難しい定理を証明できる一般的な推論システムである。
しかし実際には、このようなシステムは大きな組合せの爆発に直面しており、多くのヒューリスティックや選択点が含まれており、その性能に大きな影響を与えている。
これはトレーニングされた機械学習予測者にとっての機会であり、そのような推論システムの作業を導くことができる。
逆に、論理的に妥当な証明という概念によって支持される帰納的探索は、大きな推論コーパスで機械学習システムを訓練することができる。
このような証明は、通常、構造によって正しいものであり、より正確に訓練された指導と組み合わせると、長い推論チェーンとおそらく新しい証明アイデアを持つ非常に大きなコーパスへと押し上げられる。
本稿では,いくつかの自動推論・定理証明領域と,これまでに開発されてきた学習・AI手法の概要について述べる。
これには前提選択、いくつかの設定での証明ガイダンス、推論と学習を繰り返すAIシステムとフィードバックループ、象徴的な分類問題が含まれる。
関連論文リスト
- Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - Machine learning and information theory concepts towards an AI
Mathematician [77.63761356203105]
人工知能の現在の最先端技術は、特に言語習得の点で印象的だが、数学的推論の点ではあまり重要ではない。
このエッセイは、現在のディープラーニングが主にシステム1の能力で成功するという考えに基づいている。
興味深い数学的ステートメントを構成するものについて質問するために、情報理論的な姿勢を取る。
論文 参考訳(メタデータ) (2024-03-07T15:12:06Z) - A Hybrid System for Systematic Generalization in Simple Arithmetic
Problems [70.91780996370326]
本稿では,記号列に対する合成的および体系的推論を必要とする算術的問題を解くことができるハイブリッドシステムを提案する。
提案システムは,最も単純なケースを含むサブセットでのみ訓練された場合においても,ネストした数式を正確に解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-29T18:35:41Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - LAMBADA: Backward Chaining for Automated Reasoning in Natural Language [11.096348678079574]
LAMBADAと呼ばれる逆チェインアルゴリズムは、推論を4つのサブモジュールに分解する。
LAMBADAは最先端のフォワード推論手法よりも精度が向上することを示す。
論文 参考訳(メタデータ) (2022-12-20T18:06:03Z) - Chaining Simultaneous Thoughts for Numerical Reasoning [92.2007997126144]
テキストによる数値推論は、AIシステムにとって不可欠なスキルであるべきです。
これまでの研究は方程式の構造をモデル化することに集中し、様々な構造化デコーダを提案してきた。
我々は、有向非巡回グラフを用いてステップを推論する数値推論器CANTORを提案する。
論文 参考訳(メタデータ) (2022-11-29T18:52:06Z) - Language Models Are Greedy Reasoners: A Systematic Formal Analysis of
Chain-of-Thought [10.524051272257614]
大規模言語モデル(LLM)は、チェーン・オブ・シークレット・プロンプトが与えられた顕著な推論能力を示している。
本稿では, PrOntoQAと呼ばれる合成質問応答データセットを提案し, それぞれの例を合成世界モデルとして生成する。
これにより、生成された連鎖を形式解析の象徴的な証明に解析することができる。
論文 参考訳(メタデータ) (2022-10-03T21:34:32Z) - Adversarial Learning to Reason in an Arbitrary Logic [5.076419064097733]
定理を証明するための既存のアプローチは、特定の論理とデータセットに焦点を当てている。
本稿では,任意の論理で動作可能な強化学習によって導かれるモンテカルロシミュレーションを提案する。
論文 参考訳(メタデータ) (2022-04-06T11:25:19Z) - End-to-end Algorithm Synthesis with Recurrent Networks: Logical
Extrapolation Without Overthinking [52.05847268235338]
機械学習システムが問題を過度に考えずに論理的外挿を行う方法を示す。
本稿では,問題インスタンスの明示的なコピーをメモリに保持して,それを忘れないようにするリコールアーキテクチャを提案する。
また、モデルが数に固有の行動を学ぶのを防ぎ、無期限に繰り返される行動を学ぶためにモデルをプッシュするプログレッシブトレーニングルーチンも採用しています。
論文 参考訳(メタデータ) (2022-02-11T18:43:28Z) - Verification of ML Systems via Reparameterization [6.482926592121413]
確率的プログラムを定理証明器で自動的に表現する方法を示す。
また、ベイズ仮説テストで用いられるヌルモデルは、人口統計学的パリティ(英語版)と呼ばれる公平性基準を満たすことを証明した。
論文 参考訳(メタデータ) (2020-07-14T02:19:25Z) - Extending Automated Deduction for Commonsense Reasoning [0.0]
本論文は,古典的な一階述語論理を自動推論する手法とアルゴリズムを,コモンセンス推論に拡張できると主張している。
提案された拡張は主に通常の証明木に依存しており、不整合、デフォルトルール、トピックの操作、関連性、信頼性、類似度などを含む常識知識ベースを扱うように設計されている。
機械学習はコモンセンスの知識ベースを構築するのに最適であり、拡張された論理ベースの手法はこれらの知識ベースからのクエリに実際に答えるのに適している、と我々は主張する。
論文 参考訳(メタデータ) (2020-03-29T23:17:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。