論文の概要: Large Language Model for OWL Proofs
- arxiv url: http://arxiv.org/abs/2601.12444v1
- Date: Sun, 18 Jan 2026 14:57:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.634144
- Title: Large Language Model for OWL Proofs
- Title(参考訳): OWL証明のための大規模言語モデル
- Authors: Hui Yang, Jiaoyan Chen, Uli Sattler,
- Abstract要約: 大規模言語モデル(LLM)は推論タスクなどの推論タスクを実行できる。
本研究は,複雑な知識に対する可読な推論を表現するために広く採用されている,建設の文脈における証明生成について考察する。
- 参考スコア(独自算出の注目度): 9.414596911029243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability of Large Language Models (LLMs) to perform reasoning tasks such as deduction has been widely investigated in recent years. Yet, their capacity to generate proofs-faithful, human-readable explanations of why conclusions follow-remains largely under explored. In this work, we study proof generation in the context of OWL ontologies, which are widely adopted for representing and reasoning over complex knowledge, by developing an automated dataset construction and evaluation framework. Our evaluation encompassing three sequential tasks for complete proving: Extraction, Simplification, and Explanation, as well as an additional task of assessing Logic Completeness of the premise. Through extensive experiments on widely used reasoning LLMs, we achieve important findings including: (1) Some models achieve overall strong results but remain limited on complex cases; (2) Logical complexity, rather than representation format (formal logic language versus natural language), is the dominant factor shaping LLM performance; and (3) Noise and incompleteness in input data substantially diminish LLMs' performance. Together, these results underscore both the promise of LLMs for explanation with rigorous logics and the gap of supporting resilient reasoning under complex or imperfect conditions. Code and data are available at https://github.com/HuiYang1997/LLMOwlR.
- Abstract(参考訳): 近年,大規模言語モデル(LLM)による推論などの推論処理の能力について広く研究されている。
しかし、証明に満ちた人間の読みやすい説明を生成する能力は、なぜその結論がほとんど検討されていないのかを物語っている。
本研究では,複雑な知識を表現・推論するために広く採用されているOWLオントロジーの文脈における証明生成について,自動データセット構築・評価フレームワークの開発により検討する。
本評価では, 完全証明のための3つの逐次的タスク, 抽出, 単純化, 説明, および, 前提の論理完全性を評価するための追加タスクを含む。
提案手法は, LLMの性能を決定づける要因である表現形式(形式論理言語と自然言語)よりも論理的複雑度, 入力データのノイズと不完全性によりLLMの性能は著しく低下する。
これらの結果は、厳密な論理による説明のためのLLMの約束と、複雑な条件や不完全な条件下での弾力的推論を支援するギャップの両方を強調している。
コードとデータはhttps://github.com/HuiYang1997/LLMOwlR.comで公開されている。
関連論文リスト
- JustLogic: A Comprehensive Benchmark for Evaluating Deductive Reasoning in Large Language Models [51.99046112135311]
LLM(Large Language Models)の厳密な評価のための合成推論ベンチマークであるJustLogicを紹介する。
JustLogicは非常に複雑で、多様な言語パターン、語彙、引数構造を生成することができる。
実験の結果, (i) LLMは人体平均値よりも同等かそれ以上に機能するが, 人体天井よりも著しく低下することがわかった。
論文 参考訳(メタデータ) (2025-01-24T15:49:10Z) - Argumentation Computation with Large Language Models : A Benchmark Study [6.0682923348298194]
大規模言語モデル(LLM)は、ニューロシンボリックコンピューティングにおいて大きな進歩を遂げた。
我々は,様々な抽象的論証セマンティクスの拡張を決定する上でのLLMの能力を検討することを目的とする。
論文 参考訳(メタデータ) (2024-12-21T18:23:06Z) - Inductive Learning of Logical Theories with LLMs: An Expressivity-Graded Analysis [9.865771016218549]
本研究は,Large Language Models(LLM)の機能と限界を分析するための,新しい体系的方法論を提案する。
この分析は、LLM性能に関する特定の推論課題の定量化を可能にする、複雑性グレードのw.r.t.ルール依存構造である。
論文 参考訳(メタデータ) (2024-08-15T16:41:00Z) - CLR-Fact: Evaluating the Complex Logical Reasoning Capability of Large Language Models over Factual Knowledge [44.59258397967782]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにまたがる印象的な機能を示している。
本稿では,LLMの複雑な論理的推論能力の体系的評価について述べる。
LLMは一般世界の知識の推論に優れるが、専門分野固有の知識では重大な課題に直面している。
論文 参考訳(メタデータ) (2024-07-30T05:40:32Z) - LLMs for Relational Reasoning: How Far are We? [8.840750655261251]
大規模言語モデル(LLM)は、下流タスクで最先端のパフォーマンスを達成することで、多くの領域に革命をもたらした。
近年の取り組みにより,LSMは逐次決定問題の解決に乏しいことが示されている。
論文 参考訳(メタデータ) (2024-01-17T08:22:52Z) - Exploring Self-supervised Logic-enhanced Training for Large Language Models [59.227222647741094]
本稿では,自己指導型ポストトレーニングによる論理的知識の活用の可能性について検討する。
我々はMERItの自己回帰的目的変数を考案し、パラメータサイズが30億から13億の2つのLLM系列、すなわちFLAN-T5とLLaMAと統合する。
2つの挑戦的な論理的推論ベンチマークの結果は、LogicLLMの有効性を示している。
論文 参考訳(メタデータ) (2023-05-23T06:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。