論文の概要: Knowledge Authoring with Factual English
- arxiv url: http://arxiv.org/abs/2208.03094v1
- Date: Fri, 5 Aug 2022 10:49:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:46:34.449135
- Title: Knowledge Authoring with Factual English
- Title(参考訳): 事実英語による知識のオーサリング
- Authors: Yuheng Wang (Department of Computer Science, Stony Brook University),
Giorgian Borca-Tasciuc (Department of Computer Science, Stony Brook
University), Nikhil Goel (Department of Computer Science, Stony Brook
University), Paul Fodor (Department of Computer Science, Stony Brook
University), Michael Kifer (Department of Computer Science, Stony Brook
University)
- Abstract要約: 知識表現と推論(KRR)システムは知識を事実と規則の集合として表現する。
一つの解決策は英語の文章から知識を抽出することであり、多くの研究がそれを試みている。
残念なことに、制限されていない自然言語から論理的事実を抽出するのは、推論に使用するには不正確すぎる。
近年のCNLベースのアプローチであるKnowledge Authoring Logic Machine(KALM)は,他と比較して非常に精度が高いことが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge representation and reasoning (KRR) systems represent knowledge as
collections of facts and rules. Like databases, KRR systems contain information
about domains of human activities like industrial enterprises, science, and
business. KRRs can represent complex concepts and relations, and they can query
and manipulate information in sophisticated ways. Unfortunately, the KRR
technology has been hindered by the fact that specifying the requisite
knowledge requires skills that most domain experts do not have, and
professional knowledge engineers are hard to find. One solution could be to
extract knowledge from English text, and a number of works have attempted to do
so (OpenSesame, Google's Sling, etc.). Unfortunately, at present, extraction of
logical facts from unrestricted natural language is still too inaccurate to be
used for reasoning, while restricting the grammar of the language (so-called
controlled natural language, or CNL) is hard for the users to learn and use.
Nevertheless, some recent CNL-based approaches, such as the Knowledge Authoring
Logic Machine (KALM), have shown to have very high accuracy compared to others,
and a natural question is to what extent the CNL restrictions can be lifted. In
this paper, we address this issue by transplanting the KALM framework to a
neural natural language parser, mStanza. Here we limit our attention to
authoring facts and queries and therefore our focus is what we call factual
English statements. Authoring other types of knowledge, such as rules, will be
considered in our followup work. As it turns out, neural network based parsers
have problems of their own and the mistakes they make range from part-of-speech
tagging to lemmatization to dependency errors. We present a number of
techniques for combating these problems and test the new system, KALMFL (i.e.,
KALM for factual language), on a number of benchmarks, which show KALMFL
achieves correctness in excess of 95%.
- Abstract(参考訳): 知識表現と推論(KRR)システムは知識を事実と規則の集合として表現する。
データベースと同様に、KRRシステムは産業、科学、ビジネスといった人間の活動領域に関する情報を含んでいる。
KRRは複雑な概念や関係を表現でき、洗練された方法で情報をクエリして操作することができる。
残念ながら、KRR技術は、必要な知識を特定するには、ほとんどのドメインの専門家が持っていないスキルが必要であり、専門家の知識技術者を見つけるのが難しいという事実によって妨げられている。
一つの解決策は英語のテキストから知識を抽出することであり、多くの研究がそれを試みている(OpenSesame、GoogleのSlingなど)。
残念ながら、現在、制限されていない自然言語からの論理的事実の抽出は、推論に使用するには不正確すぎる一方で、言語(いわゆる制御自然言語、CNL)の文法を制限することは、学習や使用を困難にしている。
しかしながら、最近のCNLベースのアプローチ(例えばKnowledge Authoring Logic Machine (KALM))は、他のものと比べて非常に高い精度を示しており、CNLの制限がどの程度解除できるかという自然な疑問がある。
本稿では,神経自然言語パーサであるmstanzaにkalmフレームワークを移植することでこの問題に対処した。
ここでは、事実とクエリのオーサリングに注意を向けることを制限します。
ルールのような他の種類の知識のオーサリングは、私たちのフォローアップ作業で考慮されます。
結果として、ニューラルネットワークベースのパーサには、自身の問題や、部分的なタグ付けから補間、依存関係のエラーに至るまで、さまざまな誤りがあることが分かった。
本稿では,これらの問題に対処し,新しいシステムであるKALMFL(kaLMFL:事実言語)を多数のベンチマークで検証し,その精度が95%を超えることを示す。
関連論文リスト
- Knowledge Authoring with Factual English, Rules, and Actions [1.2110885481490308]
CNLベースのアプローチは、他と比較して非常に精度が高いことが示されている。
本稿では,ルールとアクションを表現・推論するためのKALM for Rules and Actions (KALMR)を提案する。
行動のオーサリングと推論に使用される場合、我々のアプローチは99.3%以上の正確性を達成する。
論文 参考訳(メタデータ) (2024-11-09T19:01:34Z) - Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs [55.317267269115845]
Chain-of-Knowledge (CoK)は知識推論のための包括的なフレームワークである。
CoKにはデータセット構築とモデル学習の両方のための方法論が含まれている。
KnowReasonで広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-30T10:49:32Z) - Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - KnowTuning: Knowledge-aware Fine-tuning for Large Language Models [83.5849717262019]
本研究では,LLMの微粒で粗粒な知識認識を改善するための知識認識ファインタニング(KnowTuning)手法を提案する。
KnowTuningは、きめ細かい事実評価の下で、より少ない事実エラー率で多くの事実を生成する。
論文 参考訳(メタデータ) (2024-02-17T02:54:32Z) - Is Knowledge All Large Language Models Needed for Causal Reasoning? [11.476877330365664]
本稿では,大規模言語モデル(LLM)の因果推論について,人工知能の進化における解釈可能性と信頼性を高めるために検討する。
本稿では,do-operativesを利用した新たな因果帰属モデルを提案する。
論文 参考訳(メタデータ) (2023-12-30T04:51:46Z) - Knowledge Authoring for Rules and Actions [1.942275677807562]
ルールとアクションのオーサリングを可能にするために,KALMRAを提案する。
本評価の結果,KALMRAはルールオーサリングにおいて高い精度(100%)を達成することがわかった。
本稿では、最近作られた有名なAIであるChatGPTが直面する問題に注意を向けることで、KALMRAの論理的推論能力を説明する。
論文 参考訳(メタデータ) (2023-05-12T21:08:35Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - Why Do Neural Language Models Still Need Commonsense Knowledge to Handle
Semantic Variations in Question Answering? [22.536777694218593]
マスク付きニューラルネットワークモデル(MNLM)は、巨大なニューラルネットワーク構造で構成され、マスクされたテキストを復元するように訓練されている。
本稿では,MNLMの事前学習に含まれるコモンセンス知識について,新たな知見と実証分析を行った。
論文 参考訳(メタデータ) (2022-09-01T17:15:02Z) - GreaseLM: Graph REASoning Enhanced Language Models for Question
Answering [159.9645181522436]
GreaseLMは、事前訓練されたLMとグラフニューラルネットワークの符号化された表現を、複数の層にわたるモダリティ相互作用操作で融合する新しいモデルである。
GreaseLMは、状況制約と構造化知識の両方の推論を必要とする問題に、より確実に答えることができる。
論文 参考訳(メタデータ) (2022-01-21T19:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。