論文の概要: Predicate Renaming via Large Language Models
- arxiv url: http://arxiv.org/abs/2510.25517v1
- Date: Wed, 29 Oct 2025 13:39:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.674881
- Title: Predicate Renaming via Large Language Models
- Title(参考訳): 大規模言語モデルによる述語名変更
- Authors: Elisabetta Gentili, Tony Ribeiro, Fabrizio Riguzzi, Katsumi Inoue,
- Abstract要約: 帰納的論理プログラミングでは、様々な規則生成法が無名の述語を含む規則を生成する。
これは論理理論の可読性、解釈可能性、再利用性を妨げている。
自然言語とコードを処理して、名前のない述語に名前を与える意味論的に意味のある提案を行う能力について検討する。
- 参考スコア(独自算出の注目度): 3.9490204272684877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we address the problem of giving names to predicates in logic rules using Large Language Models (LLMs). In the context of Inductive Logic Programming, various rule generation methods produce rules containing unnamed predicates, with Predicate Invention being a key example. This hinders the readability, interpretability, and reusability of the logic theory. Leveraging recent advancements in LLMs development, we explore their ability to process natural language and code to provide semantically meaningful suggestions for giving a name to unnamed predicates. The evaluation of our approach on some hand-crafted logic rules indicates that LLMs hold potential for this task.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) を用いた論理規則における述語名付与の問題に対処する。
帰納論理プログラミング(Inductive Logic Programming)の文脈では、様々なルール生成メソッドが名前のない述語を含むルールを生成し、述語発明(Predicate Invention)が重要な例である。
これは論理理論の可読性、解釈可能性、再利用性を妨げている。
LLM開発における最近の進歩を生かして、自然言語とコードを処理し、名前のない述語に名前を与える意味論的に意味のある提案を行う能力を探究する。
いくつかの手作り論理規則に対するアプローチの評価は, LLM がこの課題の可能性を秘めていることを示している。
関連論文リスト
- Abductive Logical Rule Induction by Bridging Inductive Logic Programming and Multimodal Large Language Models [22.49558896794021]
Inductive Logic Programming(ILP)とMultimodal Large Language Models(MLLM)をブリッジするILP-CoTを提案する。
このタスクには、論理的事実の発見と、少数の構造化されていないテキストや視覚的な入力から論理的ルールの誘導の両方が含まれる。
本手法は,MLLMのルール構造提案に基づいて,探索空間を切断したILPタスクを自動生成する。
論文 参考訳(メタデータ) (2025-09-26T04:56:19Z) - LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - DECIDER: A Dual-System Rule-Controllable Decoding Framework for Language Generation [57.07295906718989]
制約付き復号法は,事前訓練された大言語(Ms と PLMs)が生成するテキストの意味やスタイルを,推論時に様々なタスクに対して制御することを目的としている。
これらの方法は、しばしば、欲求的かつ明示的にターゲットを選択することによって、もっともらしい連続を導く。
認知二重プロセス理論に着想を得て,新しい復号化フレームワークDECDERを提案する。
論文 参考訳(メタデータ) (2024-03-04T11:49:08Z) - Do Large Language Models Understand Logic or Just Mimick Context? [14.081178100662163]
本稿では,2つの論理的推論データセット上での大規模言語モデル(LLM)の推論能力について検討する。
LLMは論理規則を真に理解していないことが判明した。むしろ、文脈内学習は、これらのモデルが正しい解に到達する可能性を高めている。
論文 参考訳(メタデータ) (2024-02-19T12:12:35Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Meta-Reasoning: Semantics-Symbol Deconstruction for Large Language Models [34.22393697176282]
実世界の象徴的手法の適用性と適応性を広げるためのメタ推論を提案する。
この方法はLLMに対して、推論に依存しない意味情報を汎用的な記号表現に分解する権限を与える。
我々は、算術、記号、論理的推論といった従来の推論タスクを含む10以上のデータセットと、理論の推論のようなより複雑な対話的推論タスクに関する広範な実験を行う。
論文 参考訳(メタデータ) (2023-06-30T17:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。