論文の概要: Knowledge Authoring with Factual English
- arxiv url: http://arxiv.org/abs/2208.03094v1
- Date: Fri, 5 Aug 2022 10:49:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:46:34.449135
- Title: Knowledge Authoring with Factual English
- Title(参考訳): 事実英語による知識のオーサリング
- Authors: Yuheng Wang (Department of Computer Science, Stony Brook University),
Giorgian Borca-Tasciuc (Department of Computer Science, Stony Brook
University), Nikhil Goel (Department of Computer Science, Stony Brook
University), Paul Fodor (Department of Computer Science, Stony Brook
University), Michael Kifer (Department of Computer Science, Stony Brook
University)
- Abstract要約: 知識表現と推論(KRR)システムは知識を事実と規則の集合として表現する。
一つの解決策は英語の文章から知識を抽出することであり、多くの研究がそれを試みている。
残念なことに、制限されていない自然言語から論理的事実を抽出するのは、推論に使用するには不正確すぎる。
近年のCNLベースのアプローチであるKnowledge Authoring Logic Machine(KALM)は,他と比較して非常に精度が高いことが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge representation and reasoning (KRR) systems represent knowledge as
collections of facts and rules. Like databases, KRR systems contain information
about domains of human activities like industrial enterprises, science, and
business. KRRs can represent complex concepts and relations, and they can query
and manipulate information in sophisticated ways. Unfortunately, the KRR
technology has been hindered by the fact that specifying the requisite
knowledge requires skills that most domain experts do not have, and
professional knowledge engineers are hard to find. One solution could be to
extract knowledge from English text, and a number of works have attempted to do
so (OpenSesame, Google's Sling, etc.). Unfortunately, at present, extraction of
logical facts from unrestricted natural language is still too inaccurate to be
used for reasoning, while restricting the grammar of the language (so-called
controlled natural language, or CNL) is hard for the users to learn and use.
Nevertheless, some recent CNL-based approaches, such as the Knowledge Authoring
Logic Machine (KALM), have shown to have very high accuracy compared to others,
and a natural question is to what extent the CNL restrictions can be lifted. In
this paper, we address this issue by transplanting the KALM framework to a
neural natural language parser, mStanza. Here we limit our attention to
authoring facts and queries and therefore our focus is what we call factual
English statements. Authoring other types of knowledge, such as rules, will be
considered in our followup work. As it turns out, neural network based parsers
have problems of their own and the mistakes they make range from part-of-speech
tagging to lemmatization to dependency errors. We present a number of
techniques for combating these problems and test the new system, KALMFL (i.e.,
KALM for factual language), on a number of benchmarks, which show KALMFL
achieves correctness in excess of 95%.
- Abstract(参考訳): 知識表現と推論(KRR)システムは知識を事実と規則の集合として表現する。
データベースと同様に、KRRシステムは産業、科学、ビジネスといった人間の活動領域に関する情報を含んでいる。
KRRは複雑な概念や関係を表現でき、洗練された方法で情報をクエリして操作することができる。
残念ながら、KRR技術は、必要な知識を特定するには、ほとんどのドメインの専門家が持っていないスキルが必要であり、専門家の知識技術者を見つけるのが難しいという事実によって妨げられている。
一つの解決策は英語のテキストから知識を抽出することであり、多くの研究がそれを試みている(OpenSesame、GoogleのSlingなど)。
残念ながら、現在、制限されていない自然言語からの論理的事実の抽出は、推論に使用するには不正確すぎる一方で、言語(いわゆる制御自然言語、CNL)の文法を制限することは、学習や使用を困難にしている。
しかしながら、最近のCNLベースのアプローチ(例えばKnowledge Authoring Logic Machine (KALM))は、他のものと比べて非常に高い精度を示しており、CNLの制限がどの程度解除できるかという自然な疑問がある。
本稿では,神経自然言語パーサであるmstanzaにkalmフレームワークを移植することでこの問題に対処した。
ここでは、事実とクエリのオーサリングに注意を向けることを制限します。
ルールのような他の種類の知識のオーサリングは、私たちのフォローアップ作業で考慮されます。
結果として、ニューラルネットワークベースのパーサには、自身の問題や、部分的なタグ付けから補間、依存関係のエラーに至るまで、さまざまな誤りがあることが分かった。
本稿では,これらの問題に対処し,新しいシステムであるKALMFL(kaLMFL:事実言語)を多数のベンチマークで検証し,その精度が95%を超えることを示す。
関連論文リスト
- Language Models as Inductive Reasoners [141.32161860251864]
本稿では,自然言語の事実から自然言語規則を誘導するタスクを提案する。
自然言語を論理言語ではなく知識の表現として使用し、事前学習した言語モデルを「推論者」として使用します。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Empowering Language Models with Knowledge Graph Reasoning for Question
Answering [117.79170629640525]
我々はknOwledge ReasOning empowered Language Model (OREO-LM)を提案する。
OREO-LMは、既存のTransformerベースのLMに柔軟に接続できる新しい知識相互作用層で構成されている。
クローズド・ブック・セッティングにおいて,最先端の成果が得られ,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-15T18:26:26Z) - A Survey of Knowledge-Enhanced Pre-trained Language Models [56.45785712146972]
我々は知識強化事前学習言語モデル(KE-PLM)の総合的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分けられる。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - Why Do Neural Language Models Still Need Commonsense Knowledge to Handle
Semantic Variations in Question Answering? [22.536777694218593]
マスク付きニューラルネットワークモデル(MNLM)は、巨大なニューラルネットワーク構造で構成され、マスクされたテキストを復元するように訓練されている。
本稿では,MNLMの事前学習に含まれるコモンセンス知識について,新たな知見と実証分析を行った。
論文 参考訳(メタデータ) (2022-09-01T17:15:02Z) - Knowledge Graph Fusion for Language Model Fine-tuning [0.0]
BERTの微調整段階における知識導入のメリットについて検討する。
既存のK-BERTモデルは、知識グラフから三つ子で文を豊かにするものであり、英語に適応している。
K-BERTに変更された英語は、他の単語ベースの言語にも拡張されている。
論文 参考訳(メタデータ) (2022-06-21T08:06:22Z) - Asking for Knowledge: Training RL Agents to Query External Knowledge
Using Language [121.56329458876655]
グリッドワールドベースのQ-BabyAIとテキストベースのQ-TextWorldの2つの新しい環境を紹介した。
本稿では,意味のある知識を問うための言語コマンドを生成する「知識の探索(AFK)」エージェントを提案する。
論文 参考訳(メタデータ) (2022-05-12T14:20:31Z) - Incorporating Explicit Knowledge in Pre-trained Language Models for
Passage Re-ranking [32.22697200984185]
本稿では,新しい知識グラフ蒸留法を提案し,問合せと通過の橋渡しとして知識メタグラフを得る。
PLMをテキストエンコーダとして,知識メタグラフを知識エンコーダとして,グラフニューラルネットワークとして採用した。
論文 参考訳(メタデータ) (2022-04-25T14:07:28Z) - GreaseLM: Graph REASoning Enhanced Language Models for Question
Answering [159.9645181522436]
GreaseLMは、事前訓練されたLMとグラフニューラルネットワークの符号化された表現を、複数の層にわたるモダリティ相互作用操作で融合する新しいモデルである。
GreaseLMは、状況制約と構造化知識の両方の推論を必要とする問題に、より確実に答えることができる。
論文 参考訳(メタデータ) (2022-01-21T19:00:05Z) - Probing Across Time: What Does RoBERTa Know and When? [70.20775905353794]
言語知識は、ドメイン間で高速、安定、そして堅牢に獲得されることを示す。
事実と常識はより遅く、ドメインに敏感です。
クロスタイム探索は、これらのモデルが生み出す複雑で混ざった学習を理解するのに役立ち、必要な学習を迅速に行うためのより効率的なアプローチへと導いてくれると信じています。
論文 参考訳(メタデータ) (2021-04-16T04:26:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。