論文の概要: Unified Inductive Logic: From Formal Learning to Statistical Inference to Supervised Learning
- arxiv url: http://arxiv.org/abs/2412.02969v1
- Date: Wed, 04 Dec 2024 02:31:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:06:47.355586
- Title: Unified Inductive Logic: From Formal Learning to Statistical Inference to Supervised Learning
- Title(参考訳): 統一帰納論理:フォーマルラーニングから統計的推論から教師付きラーニングへ
- Authors: Hanti Lin,
- Abstract要約: 私は帰納論理に代わるピアセアンを開発します。
私はこれを、形式的学習理論、統計学、そして機械学習の重要な部分である教師あり学習を統一するために使います。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: While the traditional conception of inductive logic is Carnapian, I develop a Peircean alternative and use it to unify formal learning theory, statistics, and a significant part of machine learning: supervised learning. Some crucial standards for evaluating non-deductive inferences have been assumed separately in those areas, but can actually be justified by a unifying principle.
- Abstract(参考訳): 帰納論理の伝統的な概念はカルナピアンであるが、私はPirceanの代替品を開発し、それを形式的学習理論、統計学、そして機械学習の重要な部分、すなわち教師付き学習を統一するために使用します。
非帰納的推論を評価するためのいくつかの重要な基準は、これらの領域で別々に仮定されているが、実際には統一原理によって正当化できる。
関連論文リスト
- The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - Lean-STaR: Learning to Interleave Thinking and Proving [53.923617816215774]
証明の各ステップに先立って,非公式な思考を生成するために,言語モデルをトレーニングするフレームワークであるLean-STaRを紹介します。
Lean-STaRは、Lean定理証明環境内のminiF2F-testベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T01:43:07Z) - Statistical learning theory and Occam's razor: The core argument [1.6317061277457001]
本稿では,統計的学習理論から得られる単純さの核となる議論を精査する。
これは、経験的リスク最小化の方法に関する理論の中心的な学習保証に基づいて構築されている。
論文 参考訳(メタデータ) (2023-12-21T13:40:31Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - A Simple Generative Model of Logical Reasoning and Statistical Learning [0.6853165736531939]
統計的学習と論理的推論は、AIの2つの主要な分野であり、人間のようなマシンインテリジェンスに統一されることが期待されている。
本稿では、論理的推論と統計的学習の単純なベイズモデルを提案する。
我々は、形式論理におけるその満足度の観点から、データがどのように象徴的知識を引き起こすかをモデル化する。
論文 参考訳(メタデータ) (2023-05-18T16:34:51Z) - Continual Reasoning: Non-Monotonic Reasoning in Neurosymbolic AI using
Continual Learning [2.912595438026074]
ニューラルシンボリックシステムと連続学習の手法を組み合わせることで、Logic Networksはより高い精度を得ることができることを示す。
LTNには、知識とデータからの学習のカリキュラムをリコールで導入することにより、継続的な学習が加えられる。
結果は,非単調推論問題において有意な改善が認められた。
論文 参考訳(メタデータ) (2023-05-03T15:11:34Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Machine Learning is Abduction Inference [0.0]
ここでは、Pirceの誘惑推論の一形態として、グラデーテッド・コントラクテーションによるアブダクションの概念を紹介している。
このような基準の最小化として、吸引手順の共通ステップも規定する。
論文 参考訳(メタデータ) (2022-06-15T15:09:00Z) - Abduction and Argumentation for Explainable Machine Learning: A Position
Survey [2.28438857884398]
本稿では, 推論の2つの原則形式として, 帰納法と論証法を提案する。
機械学習の中で彼らが果たせる基本的な役割を具体化します。
論文 参考訳(メタデータ) (2020-10-24T13:23:44Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。