論文の概要: LGML: Logic Guided Machine Learning
- arxiv url: http://arxiv.org/abs/2006.03626v2
- Date: Mon, 29 Mar 2021 19:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 03:52:22.137208
- Title: LGML: Logic Guided Machine Learning
- Title(参考訳): lgml: 論理誘導型機械学習
- Authors: Joseph Scott, Maysum Panju, and Vijay Ganesh
- Abstract要約: 本稿では、機械学習(ML)と論理解法を共生的に組み合わせ、データから数学的関数を学習する新しいアプローチであるLogic Guided Machine Learning (LGML)を紹介する。
LGMLを用いて、ピタゴラスの定理と正弦関数に対応する式を学習し、データ効率を桁違いに改善した。
- 参考スコア(独自算出の注目度): 15.32783811623078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Logic Guided Machine Learning (LGML), a novel approach that
symbiotically combines machine learning (ML) and logic solvers with the goal of
learning mathematical functions from data. LGML consists of two phases, namely
a learning-phase and a logic-phase with a corrective feedback loop, such that,
the learning-phase learns symbolic expressions from input data, and the
logic-phase cross verifies the consistency of the learned expression with known
auxiliary truths. If inconsistent, the logic-phase feeds back "counterexamples"
to the learning-phase. This process is repeated until the learned expression is
consistent with auxiliary truth. Using LGML, we were able to learn expressions
that correspond to the Pythagorean theorem and the sine function, with several
orders of magnitude improvements in data efficiency compared to an approach
based on an out-of-the-box multi-layered perceptron (MLP).
- Abstract(参考訳): 本稿では、機械学習(ML)と論理解法を共生的に組み合わせ、データから数学的関数を学習する新しいアプローチであるLogic Guided Machine Learning (LGML)を紹介する。
lgmlは、学習相と補正フィードバックループを有する論理相の2つの相で構成され、学習相は入力データから記号表現を学習し、論理相は、既知の補助真理を持つ学習表現の一貫性を検証する。
一貫性がなければ、論理フェーズは学習フェーズに"counterexamples"を返します。
この過程は、学習された表現が補助的真理と一致するまで繰り返される。
lgmlを用いてピタゴラスの定理と正弦関数に対応する表現を学習し、mlp(out-of-to-box multi-layered perceptron)に基づくアプローチと比較して、データ効率を数桁改善することができた。
関連論文リスト
- The Graph's Apprentice: Teaching an LLM Low Level Knowledge for Circuit Quality Estimation [34.37154877681809]
We introduced VeriDistill, the first end-to-end machine learning model that direct process raw Verilog code to predict circuit quality-of-result metrics。
本モデルでは,LLMに基づく低レベル回路インサイトを予測器に転送する,新しい知識蒸留法を採用している。
実験では、VeriDistillは大規模なVerilogデータセット上で最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-10-30T04:20:10Z) - AlphaIntegrator: Transformer Action Search for Symbolic Integration Proofs [3.618534280726541]
本稿では, ステップバイステップの数学的統合のための, 最初の正解学習システムを提案する。
鍵となる考え方は、正しい数学的統合ルールの探索を導くGPTトランスフォーマーモデルで表されるポリシーを学ぶことである。
本稿では,数式に対する公理的に正しい作用を持つシンボリックエンジンと,ステップバイステップ統合のための最初のデータセットを紹介する。
論文 参考訳(メタデータ) (2024-10-03T16:50:30Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Simulating Petri nets with Boolean Matrix Logic Programming [4.762323642506732]
本稿では,ハイレベルなシンボル操作の限界に対処する新しい手法を提案する。
本フレームワークでは,基本ネットとして知られるペトリネットのクラスに対して,2つの新しいBMLPアルゴリズムを提案する。
BMLPアルゴリズムは,表付きB-Prolog,SWI-Prolog,XSB-Prolog,Clingoの40倍の速度でこれらのプログラムを評価できることを示す。
論文 参考訳(メタデータ) (2024-05-18T23:17:00Z) - Can Language Models Pretend Solvers? Logic Code Simulation with LLMs [3.802945676202634]
トランスフォーマーベースの大規模言語モデル(LLM)は、論理問題に対処する上で大きな可能性を示している。
この研究は、論理コードシミュレーションという新しい側面に発展し、論理プログラムの結果を予測するために論理解法をエミュレートするよう LLM に強制する。
論文 参考訳(メタデータ) (2024-03-24T11:27:16Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Logic-LM: Empowering Large Language Models with Symbolic Solvers for
Faithful Logical Reasoning [101.26814728062065]
大規模言語モデル(LLM)は人間のような推論能力を示しているが、それでも複雑な論理的問題に悩まされている。
本稿では,論理問題の解法を改善するために,LLMとシンボリックソルバを統合した新しいフレームワークであるLogic-LMを紹介する。
論文 参考訳(メタデータ) (2023-05-20T22:25:38Z) - Evaluating Step-by-Step Reasoning through Symbolic Verification [20.156768135017007]
事前学習言語モデル(LM)は、文脈内学習において顕著な推論性能を示した。
LMLPは、より小さなモデルサイズであっても、長さの一般化ベンチマークにおいて、チェーン・オブ・ソート(CoT)よりも25%以上精度が高い。
論文 参考訳(メタデータ) (2022-12-16T19:30:01Z) - LogiGAN: Learning Logical Reasoning via Adversarial Pre-training [58.11043285534766]
本稿では,言語モデルの論理的推論能力を向上させるために,教師なしの対人事前学習フレームワークLogiGANを提案する。
人間の学習におけるリフレクティブ思考の促進効果に着想を得て,逆生成検証アーキテクチャを用いて学習思考過程をシミュレートする。
LogiGANで事前トレーニングされたベースモデルと大規模言語モデルの両方で、12のデータセットで明らかなパフォーマンス改善が示されている。
論文 参考訳(メタデータ) (2022-05-18T08:46:49Z) - MERIt: Meta-Path Guided Contrastive Learning for Logical Reasoning [63.50909998372667]
テキストの論理的ReasonIngに対して,Metaパスを用いたコントラスト学習手法であるMERItを提案する。
2つの新しい戦略が我々の手法の必須要素である。
論文 参考訳(メタデータ) (2022-03-01T11:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。