論文の概要: Analyzing Neural Discourse Coherence Models
- arxiv url: http://arxiv.org/abs/2011.06306v1
- Date: Thu, 12 Nov 2020 10:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 06:15:41.358014
- Title: Analyzing Neural Discourse Coherence Models
- Title(参考訳): 神経談話コヒーレンスモデルの解析
- Authors: Youmna Farag, Josef Valvoda, Helen Yannakoudakis and Ted Briscoe
- Abstract要約: 本稿では,現在のコヒーレンスモデルが,談話組織におけるテキストの側面をいかに捉えるかを検討する。
文法や意味論の変化に対するコヒーレンスとテストモデルの感度を損なう言語変化の2つのデータセットを考案する。
- 参考スコア(独自算出の注目度): 17.894463722947542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we systematically investigate how well current models of
coherence can capture aspects of text implicated in discourse organisation. We
devise two datasets of various linguistic alterations that undermine coherence
and test model sensitivity to changes in syntax and semantics. We furthermore
probe discourse embedding space and examine the knowledge that is encoded in
representations of coherence. We hope this study shall provide further insight
into how to frame the task and improve models of coherence assessment further.
Finally, we make our datasets publicly available as a resource for researchers
to use to test discourse coherence models.
- Abstract(参考訳): 本研究では,現在のコヒーレンスモデルが,談話組織におけるテキストの側面をどの程度捉えることができるかを体系的に検討する。
文法や意味論の変化に対するコヒーレンスとテストモデルの感度を損なう言語変化の2つのデータセットを考案する。
さらに、談話埋め込み空間を調査し、コヒーレンスの表現にエンコードされる知識を調べる。
本研究は,タスクの編成とコヒーレンスアセスメントのモデルの改善について,さらなる知見を提供していくことを願っている。
最後に、研究者が談話コヒーレンスモデルをテストするためのリソースとしてデータセットを公開します。
関連論文リスト
- How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Learning Disentangled Speech Representations [0.412484724941528]
SynSpeechは、非絡み合った音声表現の研究を可能にするために設計された、新しい大規模合成音声データセットである。
本稿では, 線形探索と教師付きアンタングル化指標を併用して, アンタングル化表現学習手法を評価する枠組みを提案する。
SynSpeechは、さまざまな要因のベンチマークを促進し、ジェンダーや話し方のようなより単純な機能の切り離しを期待できると同時に、話者アイデンティティのような複雑な属性を分離する際の課題を強調します。
論文 参考訳(メタデータ) (2023-11-04T04:54:17Z) - RAVEN: In-Context Learning with Retrieval-Augmented Encoder-Decoder Language Models [57.12888828853409]
RAVENは検索強化されたマスク付き言語モデリングとプレフィックス言語モデリングを組み合わせたモデルである。
フュージョン・イン・コンテキスト・ラーニング(Fusion-in-Context Learning)により、追加のトレーニングを必要とせずに、より多くのコンテキスト内サンプルを利用できる。
本研究は,テキスト内学習のためのエンコーダ・デコーダ言語モデルの構築の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-08-15T17:59:18Z) - Feature Interactions Reveal Linguistic Structure in Language Models [2.0178765779788495]
本研究では,ポストホック解釈における特徴帰属手法の文脈における特徴的相互作用について検討した。
私たちは、正規言語分類タスクで完璧にモデルをトレーニングする灰色のボックスの方法論を開発します。
特定の構成下では、いくつかの手法が実際にモデルが獲得した文法規則を明らかにすることができることを示す。
論文 参考訳(メタデータ) (2023-06-21T11:24:41Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Is Incoherence Surprising? Targeted Evaluation of Coherence Prediction
from Language Models [7.5413579967970605]
談話と対話の一貫性の異なる側面に対処する拡張可能なテストスイートを設計する。
従来のコヒーレンス評価研究と異なり、文順の摂動以外の特定の言語装置を扱う。
このパラダイムはコヒーレンスの概念に寄与する言語的品質を評価するのに等しく適していることを示す。
論文 参考訳(メタデータ) (2021-05-07T20:28:33Z) - Neuro-Symbolic Representations for Video Captioning: A Case for
Leveraging Inductive Biases for Vision and Language [148.0843278195794]
ビデオキャプションのためのマルチモーダルなニューラルシンボリック表現を学習するための新しいモデルアーキテクチャを提案する。
本手法では,ビデオ間の関係を学習する辞書学習手法と,そのペアによるテキスト記述を用いる。
論文 参考訳(メタデータ) (2020-11-18T20:21:19Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Analysing Lexical Semantic Change with Contextualised Word
Representations [7.071298726856781]
本稿では,BERTニューラルネットワークモデルを用いて単語使用率の表現を求める手法を提案する。
我々は新しい評価データセットを作成し、モデル表現と検出された意味変化が人間の判断と正に相関していることを示す。
論文 参考訳(メタデータ) (2020-04-29T12:18:14Z) - How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context [59.13515950353125]
文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
我々は,2つの大きなクロスドメインデータセットに対して,13のコンテキストモデリング手法を評価した。
論文 参考訳(メタデータ) (2020-02-03T11:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。