論文の概要: Scalable Neural Methods for Reasoning With a Symbolic Knowledge Base
- arxiv url: http://arxiv.org/abs/2002.06115v1
- Date: Fri, 14 Feb 2020 16:32:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 03:37:20.358634
- Title: Scalable Neural Methods for Reasoning With a Symbolic Knowledge Base
- Title(参考訳): シンボリック知識ベースを用いた推論のためのスケーラブルニューラルネットワーク
- Authors: William W. Cohen, Haitian Sun, R. Alex Hofer, Matthew Siegler
- Abstract要約: 本稿では,Sparse-matrix reified KB と呼ばれる記号的知識ベース (KB) の表現方法について述べる。
この表現は、完全に微分可能で、KBの本来の意味に忠実であり、マルチホップ推論をモデル化するのに十分な表現力を持ち、現実的に大きなKBで使用可能なスケーラブルなニューラルネットワークモジュールを可能にする。
- 参考スコア(独自算出の注目度): 34.837700505583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe a novel way of representing a symbolic knowledge base (KB) called
a sparse-matrix reified KB. This representation enables neural modules that are
fully differentiable, faithful to the original semantics of the KB, expressive
enough to model multi-hop inferences, and scalable enough to use with
realistically large KBs. The sparse-matrix reified KB can be distributed across
multiple GPUs, can scale to tens of millions of entities and facts, and is
orders of magnitude faster than naive sparse-matrix implementations. The
reified KB enables very simple end-to-end architectures to obtain competitive
performance on several benchmarks representing two families of tasks: KB
completion, and learning semantic parsers from denotations.
- Abstract(参考訳): 本稿では,Sparse-matrix reified KB と呼ばれる記号的知識ベース (KB) の表現方法について述べる。
この表現は、完全に微分可能で、kbの本来の意味論に忠実で、マルチホップ推論をモデル化するのに十分な表現力を持ち、現実的な大きなkbで使えるほどスケーラブルである神経モジュールを可能にする。
スパースマトリックスを再構成したkbは、複数のgpuに分散でき、数千万のエンティティや事実にスケールでき、ナイーブなスパースマトリックスの実装よりも桁違いに高速である。
改良されたkbは、非常に単純なエンドツーエンドアーキテクチャにより、2種類のタスクを表すいくつかのベンチマークで競合性能を得ることができる。
関連論文リスト
- KBLaM: Knowledge Base augmented Language Model [8.247901935078357]
外部知識を用いた大規模言語モデル拡張のための知識ベース拡張言語モデル(KBLaM)を提案する。
KBLaMは文書のコーパスから構築された知識ベースで動作し、KB内の各知識を連続キー値ベクトル対に変換する。
KBLaMの様々なタスクにおける有効性を示す実験は、質問応答やオープンエンド推論などである。
論文 参考訳(メタデータ) (2024-10-14T12:45:10Z) - KB-Plugin: A Plug-and-play Framework for Large Language Models to Induce
Programs over Low-resourced Knowledge Bases [49.010104412978436]
プログラム誘導(PI)は、知識ベース(KB)を使用して、大規模言語モデル(LLM)が複雑な質問に答える上で、有望なパラダイムとなっている。
我々は,LLMが低リソースKB上でプログラムを誘導できるプラグイン・アンド・プレイフレームワークKB-resourcedを提案する。
論文 参考訳(メタデータ) (2024-02-02T18:32:24Z) - QA Is the New KR: Question-Answer Pairs as Knowledge Bases [105.692569000534]
提案するKBの形式は,従来のシンボリックKBの重要な利点を多く備えている,と我々は主張する。
従来のKBとは異なり、この情報ストアは一般的なユーザ情報のニーズによく適合している。
論文 参考訳(メタデータ) (2022-07-01T19:09:08Z) - Reasoning Over Virtual Knowledge Bases With Open Predicate Relations [85.19305347984515]
Open Predicate Query Language (OPQL) を紹介します。
OPQLは、テキストから完全にトレーニングされた仮想知識ベース(VKB)を構築する方法である。
OPQLは2つの異なるKB推論タスクにおいて、以前のVKBメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-14T01:29:54Z) - Learning Knowledge Bases with Parameters for Task-Oriented Dialogue
Systems [79.02430277138801]
知識ベース(KB)は、ユーザの要求を満たす上で重要な役割を担います。
エンド・ツー・エンドのシステムは直接KBを入力として使用するが、KBが数百のエントリより大きい場合にはスケールできない。
モデルパラメータに直接KBを埋め込む手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T22:13:54Z) - Differentiable Reasoning over a Virtual Knowledge Base [156.94984221342716]
コーパスを仮想知識ベース(KB)として,複雑なマルチホップ質問に答えるタスクについて検討する。
特に、コーパス内のエンティティの参照間の関係の経路をソフトに追従し、KBのようにテキストデータをトラバースするDrKITについて述べる。
DrKITは非常に効率的で、既存のマルチホップシステムよりも毎秒10-100倍のクエリを処理する。
論文 参考訳(メタデータ) (2020-02-25T03:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。