論文の概要: Knowledge Authoring with Factual English
- arxiv url: http://arxiv.org/abs/2208.03094v1
- Date: Fri, 5 Aug 2022 10:49:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:46:34.449135
- Title: Knowledge Authoring with Factual English
- Title(参考訳): 事実英語による知識のオーサリング
- Authors: Yuheng Wang (Department of Computer Science, Stony Brook University),
Giorgian Borca-Tasciuc (Department of Computer Science, Stony Brook
University), Nikhil Goel (Department of Computer Science, Stony Brook
University), Paul Fodor (Department of Computer Science, Stony Brook
University), Michael Kifer (Department of Computer Science, Stony Brook
University)
- Abstract要約: 知識表現と推論(KRR)システムは知識を事実と規則の集合として表現する。
一つの解決策は英語の文章から知識を抽出することであり、多くの研究がそれを試みている。
残念なことに、制限されていない自然言語から論理的事実を抽出するのは、推論に使用するには不正確すぎる。
近年のCNLベースのアプローチであるKnowledge Authoring Logic Machine(KALM)は,他と比較して非常に精度が高いことが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge representation and reasoning (KRR) systems represent knowledge as
collections of facts and rules. Like databases, KRR systems contain information
about domains of human activities like industrial enterprises, science, and
business. KRRs can represent complex concepts and relations, and they can query
and manipulate information in sophisticated ways. Unfortunately, the KRR
technology has been hindered by the fact that specifying the requisite
knowledge requires skills that most domain experts do not have, and
professional knowledge engineers are hard to find. One solution could be to
extract knowledge from English text, and a number of works have attempted to do
so (OpenSesame, Google's Sling, etc.). Unfortunately, at present, extraction of
logical facts from unrestricted natural language is still too inaccurate to be
used for reasoning, while restricting the grammar of the language (so-called
controlled natural language, or CNL) is hard for the users to learn and use.
Nevertheless, some recent CNL-based approaches, such as the Knowledge Authoring
Logic Machine (KALM), have shown to have very high accuracy compared to others,
and a natural question is to what extent the CNL restrictions can be lifted. In
this paper, we address this issue by transplanting the KALM framework to a
neural natural language parser, mStanza. Here we limit our attention to
authoring facts and queries and therefore our focus is what we call factual
English statements. Authoring other types of knowledge, such as rules, will be
considered in our followup work. As it turns out, neural network based parsers
have problems of their own and the mistakes they make range from part-of-speech
tagging to lemmatization to dependency errors. We present a number of
techniques for combating these problems and test the new system, KALMFL (i.e.,
KALM for factual language), on a number of benchmarks, which show KALMFL
achieves correctness in excess of 95%.
- Abstract(参考訳): 知識表現と推論(KRR)システムは知識を事実と規則の集合として表現する。
データベースと同様に、KRRシステムは産業、科学、ビジネスといった人間の活動領域に関する情報を含んでいる。
KRRは複雑な概念や関係を表現でき、洗練された方法で情報をクエリして操作することができる。
残念ながら、KRR技術は、必要な知識を特定するには、ほとんどのドメインの専門家が持っていないスキルが必要であり、専門家の知識技術者を見つけるのが難しいという事実によって妨げられている。
一つの解決策は英語のテキストから知識を抽出することであり、多くの研究がそれを試みている(OpenSesame、GoogleのSlingなど)。
残念ながら、現在、制限されていない自然言語からの論理的事実の抽出は、推論に使用するには不正確すぎる一方で、言語(いわゆる制御自然言語、CNL)の文法を制限することは、学習や使用を困難にしている。
しかしながら、最近のCNLベースのアプローチ(例えばKnowledge Authoring Logic Machine (KALM))は、他のものと比べて非常に高い精度を示しており、CNLの制限がどの程度解除できるかという自然な疑問がある。
本稿では,神経自然言語パーサであるmstanzaにkalmフレームワークを移植することでこの問題に対処した。
ここでは、事実とクエリのオーサリングに注意を向けることを制限します。
ルールのような他の種類の知識のオーサリングは、私たちのフォローアップ作業で考慮されます。
結果として、ニューラルネットワークベースのパーサには、自身の問題や、部分的なタグ付けから補間、依存関係のエラーに至るまで、さまざまな誤りがあることが分かった。
本稿では,これらの問題に対処し,新しいシステムであるKALMFL(kaLMFL:事実言語)を多数のベンチマークで検証し,その精度が95%を超えることを示す。
関連論文リスト
- KnowTuning: Knowledge-aware Fine-tuning for Large Language Models [86.72825837235344]
大規模言語モデル(LLM)の知識認識を明確かつ暗黙的に改善する知識認識ファインタニング(KnowTuning)手法を提案する。
我々は、LLMを訓練し、答えにおける知識の3倍を明示的に識別するために、明示的な知識認識生成ステージを考案する。
また,LLMを学習し,信頼できない知識と信頼できない知識を暗黙的に区別するために,暗黙的な知識認識比較ステージを提案する。
論文 参考訳(メタデータ) (2024-02-17T02:54:32Z) - Is Knowledge All Large Language Models Needed for Causal Reasoning? [12.898859965556698]
本稿では,大規模言語モデル(LLM)の因果推論について,人工知能の進化における解釈可能性と信頼性を高めるために検討する。
本稿では,「do-operators」を用いた新たな因果帰属モデルを提案する。
論文 参考訳(メタデータ) (2023-12-30T04:51:46Z) - Knowledge Crosswords: Geometric Reasoning over Structured Knowledge with
Large Language Models [51.35398315130094]
構造的知識に対する幾何学的推論を提案し、そこでは知識の一部がグラフ構造に連結され、モデルは不足した情報を埋める必要がある。
このような幾何学的知識推論は、構造化された知識、不確実性のある推論、事実の検証、エラーが発生した時のバックトラックを扱う能力を必要とする。
本稿では,不完全なエンティティネットワークの幾何学的制約を表す自然言語質問からなるマルチブランクQAデータセットであるKnowledge Crosswordsを提案する。
論文 参考訳(メタデータ) (2023-10-02T15:43:53Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - Knowledge Authoring for Rules and Actions [1.942275677807562]
ルールとアクションのオーサリングを可能にするために,KALMRAを提案する。
本評価の結果,KALMRAはルールオーサリングにおいて高い精度(100%)を達成することがわかった。
本稿では、最近作られた有名なAIであるChatGPTが直面する問題に注意を向けることで、KALMRAの論理的推論能力を説明する。
論文 参考訳(メタデータ) (2023-05-12T21:08:35Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - Why Do Neural Language Models Still Need Commonsense Knowledge to Handle
Semantic Variations in Question Answering? [22.536777694218593]
マスク付きニューラルネットワークモデル(MNLM)は、巨大なニューラルネットワーク構造で構成され、マスクされたテキストを復元するように訓練されている。
本稿では,MNLMの事前学習に含まれるコモンセンス知識について,新たな知見と実証分析を行った。
論文 参考訳(メタデータ) (2022-09-01T17:15:02Z) - Incorporating Explicit Knowledge in Pre-trained Language Models for
Passage Re-ranking [32.22697200984185]
本稿では,新しい知識グラフ蒸留法を提案し,問合せと通過の橋渡しとして知識メタグラフを得る。
PLMをテキストエンコーダとして,知識メタグラフを知識エンコーダとして,グラフニューラルネットワークとして採用した。
論文 参考訳(メタデータ) (2022-04-25T14:07:28Z) - GreaseLM: Graph REASoning Enhanced Language Models for Question
Answering [159.9645181522436]
GreaseLMは、事前訓練されたLMとグラフニューラルネットワークの符号化された表現を、複数の層にわたるモダリティ相互作用操作で融合する新しいモデルである。
GreaseLMは、状況制約と構造化知識の両方の推論を必要とする問題に、より確実に答えることができる。
論文 参考訳(メタデータ) (2022-01-21T19:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。