論文の概要: LGML: Logic Guided Machine Learning
- arxiv url: http://arxiv.org/abs/2006.03626v2
- Date: Mon, 29 Mar 2021 19:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 03:52:22.137208
- Title: LGML: Logic Guided Machine Learning
- Title(参考訳): lgml: 論理誘導型機械学習
- Authors: Joseph Scott, Maysum Panju, and Vijay Ganesh
- Abstract要約: 本稿では、機械学習(ML)と論理解法を共生的に組み合わせ、データから数学的関数を学習する新しいアプローチであるLogic Guided Machine Learning (LGML)を紹介する。
LGMLを用いて、ピタゴラスの定理と正弦関数に対応する式を学習し、データ効率を桁違いに改善した。
- 参考スコア(独自算出の注目度): 15.32783811623078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Logic Guided Machine Learning (LGML), a novel approach that
symbiotically combines machine learning (ML) and logic solvers with the goal of
learning mathematical functions from data. LGML consists of two phases, namely
a learning-phase and a logic-phase with a corrective feedback loop, such that,
the learning-phase learns symbolic expressions from input data, and the
logic-phase cross verifies the consistency of the learned expression with known
auxiliary truths. If inconsistent, the logic-phase feeds back "counterexamples"
to the learning-phase. This process is repeated until the learned expression is
consistent with auxiliary truth. Using LGML, we were able to learn expressions
that correspond to the Pythagorean theorem and the sine function, with several
orders of magnitude improvements in data efficiency compared to an approach
based on an out-of-the-box multi-layered perceptron (MLP).
- Abstract(参考訳): 本稿では、機械学習(ML)と論理解法を共生的に組み合わせ、データから数学的関数を学習する新しいアプローチであるLogic Guided Machine Learning (LGML)を紹介する。
lgmlは、学習相と補正フィードバックループを有する論理相の2つの相で構成され、学習相は入力データから記号表現を学習し、論理相は、既知の補助真理を持つ学習表現の一貫性を検証する。
一貫性がなければ、論理フェーズは学習フェーズに"counterexamples"を返します。
この過程は、学習された表現が補助的真理と一致するまで繰り返される。
lgmlを用いてピタゴラスの定理と正弦関数に対応する表現を学習し、mlp(out-of-to-box multi-layered perceptron)に基づくアプローチと比較して、データ効率を数桁改善することができた。
関連論文リスト
- Limits of Transformer Language Models on Learning Algorithmic
Compositions [50.55849595782243]
離散アルゴリズム学習におけるトランスフォーマー言語モデルの性能解析を行う。
LLaMAモデルをスクラッチからトレーニングし,GPT-4とGeminiで学習プリミティブの学習組成を測定する。
論文 参考訳(メタデータ) (2024-02-08T16:23:29Z) - Comparing Differentiable Logics for Learning Systems: A Research Preview [0.0]
機械学習(ML)システムの形式的検証に関する研究は、データのみからの学習が、基礎となる背景知識を捉えるのに失敗することが多いことを示唆している。
制約を本質的に満足するMLモデルを作成するための有望なアプローチは、バックグラウンド知識を論理的制約としてエンコードし、いわゆる微分可能な論理を通じて学習プロセスを導くことである。
本研究のプレビューでは、弱教師付き文脈における文献の様々な論理を比較検討し、その結果を提示し、今後の研究に向けたオープンな問題を強調する。
論文 参考訳(メタデータ) (2023-11-16T11:33:08Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Logic-LM: Empowering Large Language Models with Symbolic Solvers for
Faithful Logical Reasoning [101.26814728062065]
大規模言語モデル(LLM)は人間のような推論能力を示しているが、それでも複雑な論理的問題に悩まされている。
本稿では,論理問題の解法を改善するために,LLMとシンボリックソルバを統合した新しいフレームワークであるLogic-LMを紹介する。
論文 参考訳(メタデータ) (2023-05-20T22:25:38Z) - Improved Logical Reasoning of Language Models via Differentiable
Symbolic Programming [12.984852480664378]
事前訓練された大規模言語モデル(LM)は、スケールと構成性の進歩にもかかわらず、論理的推論を確実に行うのに苦労する。
本稿では,DSR-LMを提案する。DSR-LMは,事前学習したLMが事実知識の認識を制御し,帰納的推論を行う,微分可能なシンボリック推論フレームワークである。
論文 参考訳(メタデータ) (2023-05-05T07:24:46Z) - The Impact of Symbolic Representations on In-context Learning for
Few-shot Reasoning [14.717238616181353]
論理プログラマとしての言語モデル(LMLP)は、論理規則とそれに対応する例を含む実演から学習し、知識ベース(KB)を反復的に理由づける。
実験により、LMLPはパラメータが少なくても長さ一般化ベンチマークでCoTよりも25%以上精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-12-16T19:30:01Z) - LogiGAN: Learning Logical Reasoning via Adversarial Pre-training [58.11043285534766]
本稿では,言語モデルの論理的推論能力を向上させるために,教師なしの対人事前学習フレームワークLogiGANを提案する。
人間の学習におけるリフレクティブ思考の促進効果に着想を得て,逆生成検証アーキテクチャを用いて学習思考過程をシミュレートする。
LogiGANで事前トレーニングされたベースモデルと大規模言語モデルの両方で、12のデータセットで明らかなパフォーマンス改善が示されている。
論文 参考訳(メタデータ) (2022-05-18T08:46:49Z) - MERIt: Meta-Path Guided Contrastive Learning for Logical Reasoning [63.50909998372667]
テキストの論理的ReasonIngに対して,Metaパスを用いたコントラスト学習手法であるMERItを提案する。
2つの新しい戦略が我々の手法の必須要素である。
論文 参考訳(メタデータ) (2022-03-01T11:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。