論文の概要: Generated Knowledge Prompting for Commonsense Reasoning
- arxiv url: http://arxiv.org/abs/2110.08387v1
- Date: Fri, 15 Oct 2021 21:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 22:45:03.984842
- Title: Generated Knowledge Prompting for Commonsense Reasoning
- Title(参考訳): 常識推論のための知識生成
- Authors: Jiacheng Liu, Alisa Liu, Ximing Lu, Sean Welleck, Peter West, Ronan Le
Bras, Yejin Choi, Hannaneh Hajishirzi
- Abstract要約: 本稿では,汎用的なプロンプト形式を用いて,言語モデルから直接知識文を生成することを提案する。
このアプローチは、4つのコモンセンス推論タスクにおいて、既製の言語モデルと微調整された言語モデルの両方のパフォーマンスを向上させる。
特に、モデルが生成した知識を使用することで、予測が改善できることが分かる。
- 参考スコア(独自算出の注目度): 53.88983683513114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite their ability to capture large amount of knowledge during
pretraining, large-scale language models often benefit from incorporating
external knowledge bases, especially on commonsense reasoning tasks. This
motivates us to explore how we can best leverage knowledge elicited from
language models themselves. We propose generating knowledge statements directly
from a language model with a generic prompt format, then selecting the
knowledge which maximizes prediction probability. Despite its simplicity, this
approach improves performance of both off-the-shelf and finetuned language
models on four commonsense reasoning tasks, improving the state-of-the-art on
numerical commonsense (NumerSense), general commonsense (CommonsenseQA 2.0),
and scientific commonsense (QASC) benchmarks. Notably, we find that a model's
predictions can improve when using its own generated knowledge, demonstrating
the importance of symbolic knowledge representation in neural reasoning
processes.
- Abstract(参考訳): 事前学習中に大量の知識を捉える能力があるにもかかわらず、大規模な言語モデルは、外部の知識ベース、特に常識推論タスクを組み込むことで恩恵を受けることが多い。
これにより、言語モデル自身から得られた知識を最大限に活用できる方法を探求するモチベーションが生まれます。
汎用的なプロンプト形式で言語モデルから知識文を直接生成し,予測確率を最大化する知識を選択する。
単純さにもかかわらず、このアプローチは4つのコモンセンス推論タスクにおけるオフセット言語モデルと微調整言語モデルの両方のパフォーマンスを改善し、数値コモンセンス(numersense)、general commonsense(commonsenseqa 2.0)、scientific commonsense(qasc)ベンチマークの最先端を改善した。
特に、モデルが生成した知識を使用することで予測が向上し、ニューラル推論プロセスにおけるシンボル的知識表現の重要性が示される。
関連論文リスト
- CANDLE: Iterative Conceptualization and Instantiation Distillation from Large Language Models for Commonsense Reasoning [45.62134354858683]
CANDLEは、コモンセンス知識ベースに対する概念化とインスタンス化を反復的に行うフレームワークである。
CANDLEをATOMICに適用することにより、600万の概念化と三重項のインスタンス化を含む総合的な知識基盤を構築する。
論文 参考訳(メタデータ) (2024-01-14T13:24:30Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Commonsense Knowledge Transfer for Pre-trained Language Models [83.01121484432801]
ニューラルコモンセンス知識モデルに格納されたコモンセンス知識を汎用的な事前学習言語モデルに転送するフレームワークであるコモンセンス知識伝達を導入する。
まず、一般的なテキストを利用して、ニューラルコモンセンス知識モデルからコモンセンス知識を抽出するクエリを形成する。
次に、コモンセンスマスクの埋め込みとコモンセンスの関係予測という2つの自己教師対象で言語モデルを洗練する。
論文 参考訳(メタデータ) (2023-06-04T15:44:51Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z) - DKPLM: Decomposable Knowledge-enhanced Pre-trained Language Model for
Natural Language Understanding [19.478288026844893]
知識強化事前学習言語モデル(英: Knowledge-Enhanced Pre-trained Language Models, KEPLM)は、知識グラフから3重関係を注入して言語理解能力を向上させる事前学習モデルである。
従来の研究は、知識グラフから得られた知識を表現するための知識エンコーダとモデルを統合する。
本稿では,事前学習,微調整,推論段階における事前学習言語モデルの知識注入過程を分解する,DKPLMという新しいKEPLMを提案する。
論文 参考訳(メタデータ) (2021-12-02T08:19:42Z) - Language Models as a Knowledge Source for Cognitive Agents [9.061356032792954]
言語モデル (LM) は大量のコーパスで訓練された文補完エンジンである。
本稿では,認知システムのための新たな知識源として言語モデルを用いる上での課題と機会について概説する。
また、認知システムが提供する能力を用いて、言語モデルからの知識抽出を改善する方法も特定する。
論文 参考訳(メタデータ) (2021-09-17T01:12:34Z) - Towards a Universal Continuous Knowledge Base [49.95342223987143]
複数のニューラルネットワークからインポートされた知識を格納できる継続的知識基盤を構築する方法を提案する。
テキスト分類実験は有望な結果を示す。
我々は複数のモデルから知識ベースに知識をインポートし、そこから融合した知識を単一のモデルにエクスポートする。
論文 参考訳(メタデータ) (2020-12-25T12:27:44Z) - Language Generation with Multi-Hop Reasoning on Commonsense Knowledge
Graph [124.45799297285083]
知識グラフの構造的情報と意味的情報の両方を活用することで、コモンセンスを意識したテキスト生成が促進されると主張している。
本稿では,外部コモンセンス知識グラフから抽出したマルチリレーショナルパスに基づいて,動的マルチホップ推論を用いた事前学習モデルを実現するマルチホップ推論フロー(GRF)の生成を提案する。
論文 参考訳(メタデータ) (2020-09-24T13:55:32Z) - Unsupervised Commonsense Question Answering with Self-Talk [71.63983121558843]
本稿では,コモンセンスタスクの代替として,セルフトークに基づく教師なしフレームワークを提案する。
探索に基づく探索学習にインスパイアされた我々のアプローチは、質問を求める多くの情報で言語モデルに問い合わせる。
実験結果から,ゼロショット言語モデルベースラインの性能が大幅に向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-11T20:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。