論文の概要: Language Models as Fact Checkers?
- arxiv url: http://arxiv.org/abs/2006.04102v2
- Date: Fri, 24 Jul 2020 07:15:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 07:21:23.609066
- Title: Language Models as Fact Checkers?
- Title(参考訳): ファクトチェッカーとしての言語モデル?
- Authors: Nayeon Lee, Belinda Z. Li, Sinong Wang, Wen-tau Yih, Hao Ma, Madian
Khabsa
- Abstract要約: 言語モデルのみを使用して、効果的なエンドツーエンドのファクトチェッカーを作成します。
我々のゼロショットLMアプローチは、標準のFEVERタスクにおいてランダムなベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 39.29607585655352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has suggested that language models (LMs) store both common-sense
and factual knowledge learned from pre-training data. In this paper, we
leverage this implicit knowledge to create an effective end-to-end fact checker
using a solely a language model, without any external knowledge or explicit
retrieval components. While previous work on extracting knowledge from LMs have
focused on the task of open-domain question answering, to the best of our
knowledge, this is the first work to examine the use of language models as fact
checkers. In a closed-book setting, we show that our zero-shot LM approach
outperforms a random baseline on the standard FEVER task, and that our
fine-tuned LM compares favorably with standard baselines. Though we do not
ultimately outperform methods which use explicit knowledge bases, we believe
our exploration shows that this method is viable and has much room for
exploration.
- Abstract(参考訳): 最近の研究は、言語モデル(LM)が事前学習データから学んだ常識と事実の両方を記憶していることを示唆している。
本稿では,この暗黙的知識を活用して,外部知識や明示的な検索コンポーネントを使わずに,言語モデルのみを用いた効果的なエンドツーエンドのファクトチェッカーを作成する。
lmsから知識を抽出する以前の作業は、オープンドメインの質問応答のタスクに重点を置いてきたが、事実チェッカーとしての言語モデルの使用を調べる最初の作業である。
クローズドブック設定では、ゼロショットLMアプローチが標準FEVERタスクのランダムベースラインよりも優れており、微調整LMが標準ベースラインと良好に比較可能であることを示す。
明示的な知識ベースを使用するメソッドを最終的に上回っている訳ではありませんが、この方法が実現可能であり、探索の余地が十分にあると私たちは信じています。
関連論文リスト
- FactLLaMA: Optimizing Instruction-Following Language Models with
External Knowledge for Automated Fact-Checking [10.046323978189847]
本稿では,命令追従言語モデルと外部エビデンス検索を併用して,ファクトチェック性能を向上させることを提案する。
我々のアプローチは、与えられた入力クレームに関する適切な証拠を検索するために検索エンジンを活用することである。
そして、この証拠を用いて、LLaMAと呼ばれるオープンソースの言語モデルを作成し、入力クレームの正確性をより正確に予測できるようにする。
論文 参考訳(メタデータ) (2023-09-01T04:14:39Z) - Self-Checker: Plug-and-Play Modules for Fact-Checking with Large Language Models [75.75038268227554]
Self-Checkerはファクトチェックを容易にするプラグインとプレイモジュールからなるフレームワークである。
このフレームワークは、低リソース環境でファクトチェックシステムを構築するための、高速で効率的な方法を提供する。
論文 参考訳(メタデータ) (2023-05-24T01:46:07Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - Can LMs Learn New Entities from Descriptions? Challenges in Propagating
Injected Knowledge [72.63368052592004]
我々は、注入された事実に基づいて推論を行う(またはそれらの事実を伝播する)LMの能力について研究する。
既存の知識更新手法では,注入知識の伝播がほとんどないことがわかった。
しかし、LMのコンテキストにおけるエンティティ定義の予測は、すべての設定におけるパフォーマンスを改善する。
論文 参考訳(メタデータ) (2023-05-02T17:59:46Z) - Augmented Language Models: a Survey [55.965967655575454]
この調査は、言語モデル(LM)が推論スキルとツールの使用能力で強化されているかのレビューを行う。
私たちはこれらをAugmented Language Models (ALMs)と呼ぶ。
トークンの目的の欠如により、ALMは標準的な自然言語タスクを実行しながら、推論、ツールの使用、さらには行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-02-15T18:25:52Z) - LMPriors: Pre-Trained Language Models as Task-Specific Priors [78.97143833642971]
適切な事前条件でモデルを拡張するための原則的手法を開発した。
これは、世界に対する私たちの理解と相容れない方法で学ぶことを奨励するものです。
我々は,近年の大規模言語モデル(LM)の成功から着想を得た。
論文 参考訳(メタデータ) (2022-10-22T19:09:18Z) - Probing Commonsense Knowledge in Pre-trained Language Models with
Sense-level Precision and Expanded Vocabulary [2.588973722689844]
本稿では,言語モデルに接地感インベントリ(WordNet)を付加する手法を提案する。
LMは自己スーパービジョンから非自明なコモンセンス知識を学習でき、多くの関係をカバーし、類似性に基づくアプローチよりも効果的である。
論文 参考訳(メタデータ) (2022-10-12T16:26:59Z) - Learning Natural Language Generation from Scratch [25.984828046001013]
本稿では,TRUncated ReinForcement Learning for Language (TrufLL)を紹介する。
強化学習(RL)のみを用いて、条件付き言語モデルをゼロから訓練する独自のap-proachである。
論文 参考訳(メタデータ) (2021-09-20T08:46:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。