論文の概要: Knowledge Authoring for Rules and Actions
- arxiv url: http://arxiv.org/abs/2305.07763v1
- Date: Fri, 12 May 2023 21:08:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 19:58:12.700571
- Title: Knowledge Authoring for Rules and Actions
- Title(参考訳): ルールとアクションのための知識オーサリング
- Authors: Yuheng Wang, Paul Fodor, Michael Kifer
- Abstract要約: ルールとアクションのオーサリングを可能にするために,KALMRAを提案する。
本評価の結果,KALMRAはルールオーサリングにおいて高い精度(100%)を達成することがわかった。
本稿では、最近作られた有名なAIであるChatGPTが直面する問題に注意を向けることで、KALMRAの論理的推論能力を説明する。
- 参考スコア(独自算出の注目度): 1.942275677807562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge representation and reasoning (KRR) systems describe and reason with
complex concepts and relations in the form of facts and rules. Unfortunately,
wide deployment of KRR systems runs into the problem that domain experts have
great difficulty constructing correct logical representations of their domain
knowledge. Knowledge engineers can help with this construction process, but
there is a deficit of such specialists. The earlier Knowledge Authoring Logic
Machine (KALM) based on Controlled Natural Language (CNL) was shown to have
very high accuracy for authoring facts and questions. More recently, KALMFL, a
successor of KALM, replaced CNL with factual English, which is much less
restrictive and requires very little training from users. However, KALMFL has
limitations in representing certain types of knowledge, such as authoring rules
for multi-step reasoning or understanding actions with timestamps. To address
these limitations, we propose KALMRA to enable authoring of rules and actions.
Our evaluation using the UTI guidelines benchmark shows that KALMRA achieves a
high level of correctness (100%) on rule authoring. When used for authoring and
reasoning with actions, KALMRA achieves more than 99.3% correctness on the bAbI
benchmark, demonstrating its effectiveness in more sophisticated KRR jobs.
Finally, we illustrate the logical reasoning capabilities of KALMRA by drawing
attention to the problems faced by the recently made famous AI, ChatGPT.
- Abstract(参考訳): 知識表現と推論(KRR)システムは、事実と規則の形で複雑な概念と関係を記述し、推論する。
残念ながら、KRRシステムの広範な展開は、ドメインの専門家が自身のドメイン知識の正しい論理的表現を構築するのに非常に苦労している問題に陥る。
知識エンジニアは、この建設プロセスを支援することができるが、そのような専門家の不足がある。
制御自然言語(cnl)に基づく初期の知識オーサリング論理機械(kalm)は、事実や疑問をオーサリングするのに非常に高い精度を持つことが示された。
最近では、KALMの後継であるKALMFLがCNLを事実上の英語に置き換えた。
しかし、KALMFLは、マルチステップ推論のためのルールのオーサリングやタイムスタンプによる行動理解など、特定の種類の知識の表現に制限がある。
これらの制約に対処するため、ルールとアクションのオーサリングを可能にするKALMRAを提案する。
UTI ガイドラインベンチマークを用いて評価したところ,KALMRA はルールオーサリングにおいて高い精度 (100%) を達成することがわかった。
行動のオーサリングと推論に使用されると、KALMRAはbAbIベンチマークで99.3%以上の正当性を達成し、より洗練されたKRRジョブでの有効性を示す。
最後に、最近作られた有名なAIであるChatGPTが直面する問題に注意を向けることで、KALMRAの論理的推論能力を説明する。
関連論文リスト
- Knowledge Authoring with Factual English, Rules, and Actions [1.2110885481490308]
CNLベースのアプローチは、他と比較して非常に精度が高いことが示されている。
本稿では,ルールとアクションを表現・推論するためのKALM for Rules and Actions (KALMR)を提案する。
行動のオーサリングと推論に使用される場合、我々のアプローチは99.3%以上の正確性を達成する。
論文 参考訳(メタデータ) (2024-11-09T19:01:34Z) - Large Language Models-guided Dynamic Adaptation for Temporal Knowledge Graph Reasoning [87.10396098919013]
大規模言語モデル (LLM) は、時間的推論において広範な知識と卓越した能力を示した。
本稿では,時間的知識グラフに基づく推論のためのLarge Language Models-Guided Dynamic Adaptation (LLM-DA)法を提案する。
LLM-DAは、歴史的データを解析し、時間的論理規則を抽出するLLMの機能を利用する。
論文 参考訳(メタデータ) (2024-05-23T04:54:37Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - DeepEdit: Knowledge Editing as Decoding with Constraints [118.78008395850888]
多段階推論における知識の編集は、大規模言語モデル(LLM)の知識編集(KE)において大きな課題となっている。
我々は、深度優先探索により新しい知識を持つコヒーレント推論チェーンを生成するLLMの能力を高める新しいKEフレームワークDEEPEDITを提案する。
DEEPEDITに加えて, MQUAKE-2002 と MQUAKE-HARD という2つの新しい KE ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-01-19T03:48:27Z) - Temporal Knowledge Question Answering via Abstract Reasoning Induction [32.08799860090592]
本研究では,Large Language Models(LLMs)における時間的知識推論の高度化という課題に対処する。
本稿では,時間的推論を知識非依存と知識に基づく2つのフェーズに分割する抽象推論誘導(ARI)フレームワークを提案する。
提案手法は,2つの時間的QAデータセットに対して29.7%と9.27%の相対的な向上を達成している。
論文 参考訳(メタデータ) (2023-11-15T17:46:39Z) - Reasoning on Graphs: Faithful and Interpretable Large Language Model
Reasoning [104.92384929827776]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な推論能力を示している。
彼らは推論中に最新の知識と幻覚を欠いている。
知識グラフ(KG)は、推論のための信頼できる知識源を提供する。
論文 参考訳(メタデータ) (2023-10-02T10:14:43Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z) - Knowledge Authoring with Factual English [0.0]
知識表現と推論(KRR)システムは知識を事実と規則の集合として表現する。
一つの解決策は英語の文章から知識を抽出することであり、多くの研究がそれを試みている。
残念なことに、制限されていない自然言語から論理的事実を抽出するのは、推論に使用するには不正確すぎる。
近年のCNLベースのアプローチであるKnowledge Authoring Logic Machine(KALM)は,他と比較して非常に精度が高いことが示されている。
論文 参考訳(メタデータ) (2022-08-05T10:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。