論文の概要: Abductive Logical Rule Induction by Bridging Inductive Logic Programming and Multimodal Large Language Models
- arxiv url: http://arxiv.org/abs/2509.21874v1
- Date: Fri, 26 Sep 2025 04:56:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.189541
- Title: Abductive Logical Rule Induction by Bridging Inductive Logic Programming and Multimodal Large Language Models
- Title(参考訳): ブリッジインダクティブ論理プログラミングと多モード大言語モデルによる帰納論理規則の導出
- Authors: Yifei Peng, Yaoli Liu, Enbo Xia, Yu Jin, Wang-Zhou Dai, Zhong Ren, Yao-Xiang Ding, Kun Zhou,
- Abstract要約: Inductive Logic Programming(ILP)とMultimodal Large Language Models(MLLM)をブリッジするILP-CoTを提案する。
このタスクには、論理的事実の発見と、少数の構造化されていないテキストや視覚的な入力から論理的ルールの誘導の両方が含まれる。
本手法は,MLLMのルール構造提案に基づいて,探索空間を切断したILPタスクを自動生成する。
- 参考スコア(独自算出の注目度): 22.49558896794021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose ILP-CoT, a method that bridges Inductive Logic Programming (ILP) and Multimodal Large Language Models (MLLMs) for abductive logical rule induction. The task involves both discovering logical facts and inducing logical rules from a small number of unstructured textual or visual inputs, which still remain challenging when solely relying on ILP, due to the requirement of specified background knowledge and high computational cost, or MLLMs, due to the appearance of perceptual hallucinations. Based on the key observation that MLLMs could propose structure-correct rules even under hallucinations, our approach automatically builds ILP tasks with pruned search spaces based on the rule structure proposals from MLLMs, and utilizes ILP system to output rules built upon rectified logical facts and formal inductive reasoning. Its effectiveness is verified through challenging logical induction benchmarks, as well as a potential application of our approach, namely text-to-image customized generation with rule induction. Our code and data are released at https://github.com/future-item/ILP-CoT.
- Abstract(参考訳): Inductive Logic Programming (ILP) と Multimodal Large Language Models (MLLM) をブリッジして帰納的論理規則を導出する手法であるILP-CoTを提案する。
このタスクは、論理的事実の発見と、少数の構造化されていないテキストや視覚的な入力からの論理的ルールの誘導の両方を含む。
本研究は,MLLMのルール構造の提案に基づいて,MLLMのルール構造に基づく探索空間を用いたILPタスクを自動構築し,正しい論理的事実と形式的帰納的推論に基づくルールを出力するためにILPシステムを利用する。
その有効性は、挑戦的な論理帰納的ベンチマークや、我々のアプローチの潜在的な応用、すなわちルール帰納を伴うテキスト・ツー・イメージのカスタマイズによる生成を通じて検証される。
コードとデータはhttps://github.com/future-item/ILP-CoT.comで公開されています。
関連論文リスト
- Robust Hypothesis Generation: LLM-Automated Language Bias for Inductive Logic Programming [3.641087660577424]
大規模言語モデル(LLM)とインダクティブ論理プログラミング(ILP)を組み合わせたマルチエージェントシステムを統合する新しいフレームワークを提案する。
我々のLLMエージェントは、構造化されたシンボル語彙(述語)と関係テンプレートを自律的に定義する。
多様な、挑戦的なシナリオの実験は、優れたパフォーマンスを検証し、自動化され、説明可能で、検証可能な仮説生成のための新しいパスを舗装する。
論文 参考訳(メタデータ) (2025-05-27T17:53:38Z) - FSLI: An Interpretable Formal Semantic System for One-Dimensional Ordering Inference [0.9048611509540079]
論理的推論の一次元順序付け問題を解くシステムを開発した。
自然言語の前提と候補文を一階述語論理に変換する。
BIGbenchの論理推論タスクでは100%の精度を実現し、AR-LSATの構文的に単純化されたサブセットでは88%の精度を実現している。
論文 参考訳(メタデータ) (2025-02-12T13:58:42Z) - Proof of Thought : Neurosymbolic Program Synthesis allows Robust and Interpretable Reasoning [1.3003982724617653]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、一貫性のない推論に苦戦している。
本研究では,LLM出力の信頼性と透明性を高めるフレームワークであるProof of Thoughtを紹介する。
主な貢献は、論理的整合性を高めるためのソート管理を備えた堅牢な型システム、事実的知識と推論的知識を明確に区別するための規則の明示である。
論文 参考訳(メタデータ) (2024-09-25T18:35:45Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。