論文の概要: Knowledge Authoring with Factual English, Rules, and Actions
- arxiv url: http://arxiv.org/abs/2411.06253v1
- Date: Sat, 09 Nov 2024 19:01:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:09:54.701589
- Title: Knowledge Authoring with Factual English, Rules, and Actions
- Title(参考訳): ファクチュアル・イングリッシュ、ルール、アクションによる知識のオーサリング
- Authors: Yuheng Wang,
- Abstract要約: CNLベースのアプローチは、他と比較して非常に精度が高いことが示されている。
本稿では,ルールとアクションを表現・推論するためのKALM for Rules and Actions (KALMR)を提案する。
行動のオーサリングと推論に使用される場合、我々のアプローチは99.3%以上の正確性を達成する。
- 参考スコア(独自算出の注目度): 1.2110885481490308
- License:
- Abstract: Knowledge representation and reasoning systems represent knowledge as collections of facts and rules. KRRs can represent complex concepts and relations, and they can query and manipulate information in sophisticated ways. Unfortunately, the KRR technology has been hindered by the fact that specifying the requisite knowledge requires skills that most domain experts do not have, and professional knowledge engineers are hard to find. Some recent CNL-based approaches, such as the Knowledge Authoring Logic Machine (KALM), have shown to have very high accuracy compared to others, and a natural question is to what extent the CNL restrictions can be lifted. Besides the CNL restrictions, KALM has limitations in terms of the types of knowledge it can represent. To address these issues, we propose an extension of KALM called KALM for Factual Language (KALMF). KALMF uses a neural parser for natural language, MS, to parse what we call factual English sentences, which require little grammar training to use. Building upon KALMF, we propose KALM for Rules and Actions (KALMR), to represent and reason with rules and actions. Furthermore, we identify the reasons behind the slow speed of KALM and make optimizations to address this issue. Our evaluation using multiple benchmarks shows that our approaches achieve a high level of correctness on fact and query authoring (95%) and on rule authoring (100%). When used for authoring and reasoning with actions, our approach achieves more than 99.3% correctness, demonstrating its effectiveness in enabling more sophisticated knowledge representation and reasoning. We also illustrate the logical reasoning capabilities of our approach by drawing attention to the problems faced by the famous AI, ChatGPT. Finally, the evaluation of the newly proposed speed optimization points not only to a 68% runtime improvement but also yields better accuracy of the overall system.
- Abstract(参考訳): 知識表現と推論システムは知識を事実と規則の集合として表現する。
KRRは複雑な概念や関係を表現でき、洗練された方法で情報をクエリして操作することができる。
残念ながら、KRR技術は、必要な知識を特定するには、ほとんどのドメインの専門家が持っていないスキルが必要であり、専門家の知識技術者を見つけるのが難しいという事実によって妨げられている。
近年のCNLベースのアプローチ(例えば、Knowledge Authoring Logic Machine (KALM))は、他と比較して非常に高い精度を示しており、CNLの制限がどの程度解除できるかという自然な疑問がある。
CNLの制限に加えて、KALMは表現できる知識の種類に制限がある。
これらの問題に対処するために, KALM for Factual Language (KALMF) と呼ばれる KALM の拡張を提案する。
KALMFは、自然言語のためのニューラルパーサーMSを使用して、実際の英語の文を解析します。
KALMFをベースとしたKALM for Rules and Actions(KALM for Rules and Actions, KALMR)を提案する。
さらに, KALMの速度が遅い理由を明らかにし, この問題に対処するための最適化を行う。
複数のベンチマークを用いて評価した結果,提案手法は事実とクエリのオーサリング(95%)とルールのオーサリング(100%)において高い正当性が得られることがわかった。
行動のオーサリングや推論に使用される場合,本手法は99.3%以上の正当性を達成し,より洗練された知識表現と推論を可能にする効果を実証する。
また、有名なAIであるChatGPTが直面している問題に注意を向けることで、私たちのアプローチの論理的推論能力についても説明します。
最後に、新たに提案された速度最適化の評価では、実行時の68%の改善だけでなく、システム全体の精度も向上した。
関連論文リスト
- LINKED: Eliciting, Filtering and Integrating Knowledge in Large Language Model for Commonsense Reasoning [21.12539851761666]
大規模言語モデル(LLM)は、知識集約的なタスクにおけるパフォーマンスの低下を示すことがある。
大規模言語モデル(LINKED)における知識の抽出,フィルタリング,統合という新しい手法を提案する。
2つの複雑なコモンセンス推論ベンチマークに関する総合的な実験により、我々の手法はSOTAベースライン(最大9.0%の精度向上)を上回った。
論文 参考訳(メタデータ) (2024-10-12T14:12:22Z) - Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs [55.317267269115845]
Chain-of-Knowledge (CoK)は知識推論のための包括的なフレームワークである。
CoKにはデータセット構築とモデル学習の両方のための方法論が含まれている。
KnowReasonで広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-30T10:49:32Z) - Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - A Knowledge-Injected Curriculum Pretraining Framework for Question Answering [70.13026036388794]
本稿では,知識に基づく質問応答タスクの総合的なKG学習と活用を実現するための一般知識注入型カリキュラム事前学習フレームワーク(KICP)を提案する。
KIモジュールはまずKG中心の事前学習コーパスを生成してLMに知識を注入し、プロセスを3つの重要なステップに一般化する。
KAモジュールは、アダプタを備えたLMで生成されたコーパスから知識を学習し、元の自然言語理解能力を維持できる。
CRモジュールは人間の推論パターンに従って3つのコーパスを構築する。
論文 参考訳(メタデータ) (2024-03-11T03:42:03Z) - KnowledgeNavigator: Leveraging Large Language Models for Enhanced
Reasoning over Knowledge Graph [11.808990571175269]
大規模言語モデル(LLM)は、その強力な自然言語理解とゼロショット能力によって、様々な下流タスクにおいて優れたパフォーマンスを達成しているが、LLMは依然として知識制限に悩まされている。
本稿では,知識グラフから外部知識を効率的に正確に検索し,これらの課題に対処する新しいフレームワークであるKnowledgeNavigatorを提案する。
我々は,複数のKGQAベンチマーク上でKnowledgeNavigatorを評価し,そのフレームワークの有効性と一般化を実証した。
論文 参考訳(メタデータ) (2023-12-26T04:22:56Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z) - Knowledge Authoring for Rules and Actions [1.942275677807562]
ルールとアクションのオーサリングを可能にするために,KALMRAを提案する。
本評価の結果,KALMRAはルールオーサリングにおいて高い精度(100%)を達成することがわかった。
本稿では、最近作られた有名なAIであるChatGPTが直面する問題に注意を向けることで、KALMRAの論理的推論能力を説明する。
論文 参考訳(メタデータ) (2023-05-12T21:08:35Z) - Knowledge Authoring with Factual English [0.0]
知識表現と推論(KRR)システムは知識を事実と規則の集合として表現する。
一つの解決策は英語の文章から知識を抽出することであり、多くの研究がそれを試みている。
残念なことに、制限されていない自然言語から論理的事実を抽出するのは、推論に使用するには不正確すぎる。
近年のCNLベースのアプローチであるKnowledge Authoring Logic Machine(KALM)は,他と比較して非常に精度が高いことが示されている。
論文 参考訳(メタデータ) (2022-08-05T10:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。