論文の概要: Improving Machine Reading Comprehension with Contextualized Commonsense
Knowledge
- arxiv url: http://arxiv.org/abs/2009.05831v2
- Date: Mon, 19 Oct 2020 02:22:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 08:09:15.517266
- Title: Improving Machine Reading Comprehension with Contextualized Commonsense
Knowledge
- Title(参考訳): 文脈化コモンセンス知識による機械読解理解の改善
- Authors: Kai Sun, Dian Yu, Jianshu Chen, Dong Yu, Claire Cardie
- Abstract要約: 我々は、機械読解の理解を改善するために、常識知識を抽出することを目指している。
構造化知識を文脈内に配置することで,関係を暗黙的に表現することを提案する。
我々は,教師の学習パラダイムを用いて,複数種類の文脈的知識を学生機械読取機に注入する。
- 参考スコア(独自算出の注目度): 62.46091695615262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we aim to extract commonsense knowledge to improve machine
reading comprehension. We propose to represent relations implicitly by
situating structured knowledge in a context instead of relying on a pre-defined
set of relations, and we call it contextualized knowledge. Each piece of
contextualized knowledge consists of a pair of interrelated verbal and
nonverbal messages extracted from a script and the scene in which they occur as
context to implicitly represent the relation between the verbal and nonverbal
messages, which are originally conveyed by different modalities within the
script. We propose a two-stage fine-tuning strategy to use the large-scale
weakly-labeled data based on a single type of contextualized knowledge and
employ a teacher-student paradigm to inject multiple types of contextualized
knowledge into a student machine reader. Experimental results demonstrate that
our method outperforms a state-of-the-art baseline by a 4.3% improvement in
accuracy on the machine reading comprehension dataset C^3, wherein most of the
questions require unstated prior knowledge.
- Abstract(参考訳): 本稿では,機械読解を改善するために常識知識を抽出することを目的とする。
我々は、事前定義された関係の集合に頼るのではなく、コンテキスト内で構造化された知識を暗黙的に位置づけして関係を表現することを提案し、それを文脈化された知識と呼ぶ。
文脈化された知識は、スクリプトから抽出された一対の関連した動詞と非動詞のメッセージと、それらが暗黙的に言語と非動詞のメッセージの関係を表す文脈として現れる場面から構成される。
本研究では,一種類の文脈化知識に基づく大規模弱ラベルデータを用いた2段階の微調整戦略を提案し,教師学習パラダイムを用いて,複数の文脈化知識を学生機械読取機に注入する。
実験結果から,本手法は機械読解データセットC^3の精度を4.3%向上させることで,最先端のベースラインよりも優れていることが示された。
関連論文リスト
- KETM:A Knowledge-Enhanced Text Matching method [0.0]
知識強化テキストマッチングモデル(KETM)と呼ばれるテキストマッチングの新しいモデルを提案する。
テキストワード定義を外部知識として検索するために、Wiktionaryを使用します。
我々は、ゲーティング機構を用いてテキストと知識を融合させ、テキストと知識融合の比率を学習する。
論文 参考訳(メタデータ) (2023-08-11T17:08:14Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - Position Matters! Empirical Study of Order Effect in Knowledge-grounded
Dialogue [54.98184262897166]
本稿では,知識集合の順序が自己回帰対話システムの応答にどのように影響するかを検討する。
本稿では,知識入力の位置埋め込みを変更することで,注文効果を緩和する,シンプルで斬新な手法を提案する。
論文 参考訳(メタデータ) (2023-02-12T10:13:00Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Knowledge Enhanced Fine-Tuning for Better Handling Unseen Entities in
Dialogue Generation [33.806361531386685]
1)マスキングされた単語を解釈し,その文脈からマスキングされたエンティティの意味を推測する,2)コンテキストに基づいてエンティティのハイパーネムを予測する,ハイパーネム生成という2つの補助的訓練目標を導入する。
2つの対話コーパスの実験結果から,本手法の有効性を,利用可能な知識と利用できない設定の両方で検証した。
論文 参考訳(メタデータ) (2021-09-12T11:13:19Z) - External Knowledge Augmented Text Visual Question Answering [0.6445605125467573]
本稿では,視覚言語理解タスクのための標準マルチモーダルトランスフォーマー上で知識を抽出,フィルタリング,エンコードするフレームワークを提案する。
2つの公開データセット上で、最先端のデータセットに匹敵する結果を生成する。
論文 参考訳(メタデータ) (2021-08-22T13:21:58Z) - Multi-turn Dialogue Reading Comprehension with Pivot Turns and Knowledge [43.352833140317486]
マルチターン対話読解は、機械に対話コンテキストを読み、応答選択や回答質問といったタスクを解くことを目的としている。
この研究は、ピボット発話として重要なターンを抽出することで、上記の2つの課題に対処する最初の試みである。
本稿では,対話理解のためのトランスフォーマーに基づく言語モデル上に,ピボット指向の深層選択モデル(PoDS)を提案する。
論文 参考訳(メタデータ) (2021-02-10T15:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。