論文の概要: Language Models As or For Knowledge Bases
- arxiv url: http://arxiv.org/abs/2110.04888v1
- Date: Sun, 10 Oct 2021 20:00:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 10:38:57.808152
- Title: Language Models As or For Knowledge Bases
- Title(参考訳): 知識ベースとしての言語モデル
- Authors: Simon Razniewski, Andrew Yates, Nora Kassner, Gerhard Weikum
- Abstract要約: 我々は、事前学習言語モデル(LM)と明示的知識ベース(KB)の長所と短所を識別する。
我々は、潜在LMは明示的なKBの代用には適さないが、KBの増補とキュレーションにおいて重要な役割を担っていると論じる。
- 参考スコア(独自算出の注目度): 30.089955948497405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-trained language models (LMs) have recently gained attention for their
potential as an alternative to (or proxy for) explicit knowledge bases (KBs).
In this position paper, we examine this hypothesis, identify strengths and
limitations of both LMs and KBs, and discuss the complementary nature of the
two paradigms. In particular, we offer qualitative arguments that latent LMs
are not suitable as a substitute for explicit KBs, but could play a major role
for augmenting and curating KBs.
- Abstract(参考訳): 事前学習された言語モデル(lms)は、最近、明示的な知識ベース(kbs)の代替(あるいは代替)として注目を集めている。
本稿では,この仮説を検証し,lms と kbs の強みと限界を特定し,両パラダイムの相補的性質について考察する。
特に、潜在 lms は明示的な kb の代用として適さないが、kb の強化とキュレーションには大きな役割を果たす可能性があるという定性的な議論がある。
関連論文リスト
- Large Language Models as Reliable Knowledge Bases? [60.25969380388974]
大きな言語モデル(LLM)は潜在的な知識ベース(KB)と見なすことができる。
本研究は、信頼性の高いLLM-as-KBが満たすべき基準を定義し、事実性と一貫性に焦点をあてる。
ICLや微調整のような戦略は、LLMをより良くKBにするには失敗している。
論文 参考訳(メタデータ) (2024-07-18T15:20:18Z) - Find The Gap: Knowledge Base Reasoning For Visual Question Answering [19.6585442152102]
我々は、知識に基づく視覚的質問応答の分析を行い、その答えが与えられた場合、モデルがそれを視覚的モダリティに根ざす必要がある。
本研究は,外的・視覚的知識検索モデルを用いたタスク固有モデルとLLMモデルの強化効果を実証するものである。
以上の結果から,LLMは1ホップの推論では強いが,細調整NNモデルと比較して2ホップの推論に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2024-04-16T02:11:46Z) - Translate Meanings, Not Just Words: IdiomKB's Role in Optimizing
Idiomatic Translation with Language Models [57.60487455727155]
idiomsは非構成的な性質を持ち、Transformerベースのシステムに特別な課題を提起する。
既存の知識ベース(KB)を使ってイディオムを置き換える伝統的な手法は、しばしばスケールとコンテキストの認識を欠いている。
大規模なLMを用いて開発した多言語イディオムKB (IdiomKB) を提案する。
このKBはBLOOMZ (7.1B)、Alpaca (7B)、InstructGPT (6.7B)のようなより小さなモデルによるより良い翻訳を促進する
論文 参考訳(メタデータ) (2023-08-26T21:38:31Z) - Cross-Lingual Question Answering over Knowledge Base as Reading
Comprehension [61.079852289005025]
知識ベース(xKBQA)に対する言語間質問応答は、提供された知識ベースとは異なる言語での質問に答えることを目的としている。
xKBQAが直面する大きな課題の1つは、データアノテーションのコストが高いことである。
読解パラダイムにおけるxKBQAの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-26T05:52:52Z) - A Review on Language Models as Knowledge Bases [55.035030134703995]
近年,知識ベース (KB) としての事前訓練言語モデル (LM) の利用に対する,NLPコミュニティへの関心が高まっている。
論文 参考訳(メタデータ) (2022-04-12T18:35:23Z) - Prix-LM: Pretraining for Multilingual Knowledge Base Construction [59.02868906044296]
複数言語による知識構築と完成のための統合フレームワークである Prix-LM を提案する。
既存の多言語KBから抽出したモノリンガルトリプルとクロスリンガルリンクの2種類の知識を利用する。
複数の言語におけるリンク予測、言語間リンク、バイリンガル語彙誘導など、標準的なエンティティ関連タスクの実験は、その効果を実証している。
論文 参考訳(メタデータ) (2021-10-16T02:08:46Z) - Relational world knowledge representation in contextual language models:
A review [19.176173014629185]
我々は自然言語処理の観点から知識ベース(kbs)の限界を考える
文脈言語モデル(LM)における関係知識表現のための新しい分類法を提案する。
論文 参考訳(メタデータ) (2021-04-12T21:50:55Z) - Reasoning Over Virtual Knowledge Bases With Open Predicate Relations [85.19305347984515]
Open Predicate Query Language (OPQL) を紹介します。
OPQLは、テキストから完全にトレーニングされた仮想知識ベース(VKB)を構築する方法である。
OPQLは2つの異なるKB推論タスクにおいて、以前のVKBメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-14T01:29:54Z) - Language Models as Knowledge Bases: On Entity Representations, Storage
Capacity, and Paraphrased Queries [35.57443199012129]
事前訓練された言語モデルは、構造化された知識ベースに対する代替または補完として提案されている。
ここでは、LMをKBとして扱うための2つの基本的な要件を定式化する。
我々は、LMが数百万のエンティティを表現できる3つのエンティティ表現を探索し、LMにおける世界知識のパラフレーズクエリに関する詳細なケーススタディを示す。
論文 参考訳(メタデータ) (2020-08-20T15:39:36Z) - On Expansion and Contraction of DL-Lite Knowledge Bases [9.168045898881292]
DL-Liteで表される知識ベースに対する知識拡張と収縮について検討する。
DL-Liteの拡張と収縮には,よく知られた公式ベースのアプローチが適さないことを示す。
本稿では,我々の原理と進化を尊重し,DL-Liteで表現可能な新しい公式ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-25T21:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。