論文の概要: Commonsense Knowledge Reasoning and Generation with Pre-trained Language
Models: A Survey
- arxiv url: http://arxiv.org/abs/2201.12438v1
- Date: Fri, 28 Jan 2022 21:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 10:30:29.408568
- Title: Commonsense Knowledge Reasoning and Generation with Pre-trained Language
Models: A Survey
- Title(参考訳): 事前学習型言語モデルを用いた常識知識推論と生成:調査
- Authors: Prajjwal Bhargava, Vincent Ng
- Abstract要約: 近年、訓練済みモデルの開発において自然言語処理コミュニティへの関心が高まっている。
本稿では,これらの課題を調査し,コモンセンス推論と生成のための最先端の事前学習モデルの長所と短所について考察する。
- 参考スコア(独自算出の注目度): 33.43202685138164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While commonsense knowledge acquisition and reasoning has traditionally been
a core research topic in the knowledge representation and reasoning community,
recent years have seen a surge of interest in the natural language processing
community in developing pre-trained models and testing their ability to address
a variety of newly designed commonsense knowledge reasoning and generation
tasks. This paper presents a survey of these tasks, discusses the strengths and
weaknesses of state-of-the-art pre-trained models for commonsense reasoning and
generation as revealed by these tasks, and reflects on future research
directions.
- Abstract(参考訳): 常識知識の獲得と推論は伝統的に知識表現と推論コミュニティの中核的な研究テーマであったが、近年は自然言語処理コミュニティにおいて、事前訓練されたモデルを開発し、新しく設計された様々な常識知識の推論と生成タスクに対処する能力をテストすることへの関心が高まっている。
本稿では,これらの課題に関する調査を行い,これらの課題により明らかになった常識推論と生成のための最先端の事前学習モデルの強みと弱みについて考察し,今後の研究の方向性を考察する。
関連論文リスト
- A Survey on Natural Language Counterfactual Generation [7.022371235308068]
自然言語のカウンターファクト生成は、修正されたテキストが別のクラスに分類されるように、与えられたテキストを最小限に修正することを目的としている。
生成手法を4つのグループに体系的に分類し、生成品質を評価するための指標を要約する新しい分類法を提案する。
論文 参考訳(メタデータ) (2024-07-04T15:13:59Z) - A Survey of Reasoning with Foundation Models [235.7288855108172]
推論は、交渉、医療診断、刑事捜査など、様々な現実世界の環境において重要な役割を担っている。
本稿では,推論に適応する基礎モデルを提案する。
次に、基礎モデルにおける推論能力の出現の背後にある潜在的な将来方向を掘り下げる。
論文 参考訳(メタデータ) (2023-12-17T15:16:13Z) - Commonsense Knowledge Transfer for Pre-trained Language Models [83.01121484432801]
ニューラルコモンセンス知識モデルに格納されたコモンセンス知識を汎用的な事前学習言語モデルに転送するフレームワークであるコモンセンス知識伝達を導入する。
まず、一般的なテキストを利用して、ニューラルコモンセンス知識モデルからコモンセンス知識を抽出するクエリを形成する。
次に、コモンセンスマスクの埋め込みとコモンセンスの関係予測という2つの自己教師対象で言語モデルを洗練する。
論文 参考訳(メタデータ) (2023-06-04T15:44:51Z) - A Survey of Knowledge-Intensive NLP with Pre-Trained Language Models [185.08295787309544]
我々は、事前訓練された言語モデルに基づく知識強化モデル(PLMKEs)の現在の進歩を要約することを目的としている。
本論では,3つの要素に関する議論に基づくPLMKEの課題について述べるとともに,NLP実践者にさらなる研究の道筋を示そうとしている。
論文 参考訳(メタデータ) (2022-02-17T17:17:43Z) - On Semantic Cognition, Inductive Generalization, and Language Models [0.2538209532048867]
私の研究は、自然言語のみを予測するために訓練されたニューラルネットワークモデル(言語モデルまたはLM)における意味的知識の理解に焦点を当てています。
そこで,本研究では,人間による背景知識の活用,帰納的跳躍,概念とその特性に関する新たな情報からの一般化,といった現象に着想を得た枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-04T03:19:52Z) - Schr\"odinger's Tree -- On Syntax and Neural Language Models [10.296219074343785]
言語モデルは、NLPのワークホースとして登場し、ますます流動的な生成能力を示している。
我々は、多くの次元にまたがる明瞭さの欠如を観察し、研究者が形成する仮説に影響を及ぼす。
本稿では,構文研究における様々な研究課題の意義について概説する。
論文 参考訳(メタデータ) (2021-10-17T18:25:23Z) - Knowledge-driven Data Construction for Zero-shot Evaluation in
Commonsense Question Answering [80.60605604261416]
本稿では,共通認識課題にまたがるゼロショット質問応答のための新しいニューラルシンボリック・フレームワークを提案する。
言語モデル、トレーニング体制、知識ソース、データ生成戦略のセットを変えて、タスク間の影響を測定します。
個別の知識グラフは特定のタスクに適しているが、グローバルな知識グラフはさまざまなタスクに対して一貫した利得をもたらす。
論文 参考訳(メタデータ) (2020-11-07T22:52:21Z) - Language Generation with Multi-Hop Reasoning on Commonsense Knowledge
Graph [124.45799297285083]
知識グラフの構造的情報と意味的情報の両方を活用することで、コモンセンスを意識したテキスト生成が促進されると主張している。
本稿では,外部コモンセンス知識グラフから抽出したマルチリレーショナルパスに基づいて,動的マルチホップ推論を用いた事前学習モデルを実現するマルチホップ推論フロー(GRF)の生成を提案する。
論文 参考訳(メタデータ) (2020-09-24T13:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。