論文の概要: Using Type Information to Improve Entity Coreference Resolution
- arxiv url: http://arxiv.org/abs/2010.05738v1
- Date: Mon, 12 Oct 2020 14:32:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 05:21:50.101697
- Title: Using Type Information to Improve Entity Coreference Resolution
- Title(参考訳): 型情報を使ってエンティティの参照解決を改善する
- Authors: Sopan Khosla, Carolyn Rose
- Abstract要約: 本論文は、金の標準または予測型を導入することにより、その精度が適度に向上することを示す最初のモデルと評価を提供する。
提案手法では,(1)参照表現の改善,(2)コア参照候補参照間のソフトな型整合性チェックの作成を行う。
- 参考スコア(独自算出の注目度): 6.888700669980623
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Coreference resolution (CR) is an essential part of discourse analysis. Most
recently, neural approaches have been proposed to improve over SOTA models from
earlier paradigms. So far none of the published neural models leverage external
semantic knowledge such as type information. This paper offers the first such
model and evaluation, demonstrating modest gains in accuracy by introducing
either gold standard or predicted types. In the proposed approach, type
information serves both to (1) improve mention representation and (2) create a
soft type consistency check between coreference candidate mentions. Our
evaluation covers two different grain sizes of types over four different
benchmark corpora.
- Abstract(参考訳): coreference resolution (cr) は談話分析の重要な部分である。
最近では、以前のパラダイムからSOTAモデルよりも改善する神経アプローチが提案されている。
今のところ、公開されたニューラルモデルは、型情報のような外部的な意味的知識を活用していない。
本稿は,金本位制か予測型のいずれかを導入することで,精度の低さを示す最初のモデルと評価を提供する。
提案手法では,(1)参照表現の改善,(2)参照候補参照間のソフト型一貫性チェックの作成などを行う。
評価は4種類のベンチマークコーパスに対して2種類の異なる粒度について行った。
関連論文リスト
- Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - Explaining Pre-Trained Language Models with Attribution Scores: An
Analysis in Low-Resource Settings [32.03184402316848]
我々は,素早いモデルから抽出した帰属スコアの妥当性と忠実度を分析した。
プロンプトパラダイムを用いることで、低リソース環境下でモデルを微調整するよりも、より妥当な説明が得られます。
論文 参考訳(メタデータ) (2024-03-08T14:14:37Z) - RegaVAE: A Retrieval-Augmented Gaussian Mixture Variational Auto-Encoder
for Language Modeling [79.56442336234221]
可変オートエンコーダ(VAE)に基づく検索拡張言語モデルであるRegaVAEを紹介する。
テキストコーパスを潜在空間にエンコードし、ソースとターゲットの両方のテキストから現在と将来の情報をキャプチャする。
各種データセットに対する実験結果から,テキスト生成品質と幻覚除去の大幅な改善が示された。
論文 参考訳(メタデータ) (2023-10-16T16:42:01Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Transformer-based approaches to Sentiment Detection [55.41644538483948]
テキスト分類のための4種類の最先端変圧器モデルの性能について検討した。
RoBERTa変換モデルは82.6%のスコアでテストデータセット上で最高のパフォーマンスを示し、品質予測に非常に推奨されている。
論文 参考訳(メタデータ) (2023-03-13T17:12:03Z) - Few-shot Text Classification with Dual Contrastive Consistency [31.141350717029358]
本稿では,事前学習した言語モデルを用いて,数ショットのテキスト分類を行う方法について検討する。
ラベル付きデータが少ない場合の教師付きコントラスト学習と、ラベルなしデータの一貫性と規則化を採用する。
論文 参考訳(メタデータ) (2022-09-29T19:26:23Z) - On the Role of Bidirectionality in Language Model Pre-Training [85.14614350372004]
本研究では,次のトークン予測,テキスト入力,ゼロショットプライミング,微調整における双方向性の役割について検討する。
最大6.7Bのパラメータを持つモデルをトレーニングし、スケールで一貫性のある相違点を見つけます。
論文 参考訳(メタデータ) (2022-05-24T02:25:05Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Tracing Origins: Coref-aware Machine Reading Comprehension [43.352833140317486]
そこで,本研究では,アナフォリック表現を接続する際の人間の読影過程を模倣し,コア参照情報を活用し,事前学習モデルから単語の埋め込みを強化する。
学習段階におけるコア参照情報の明示的な組み込みは,事前学習言語モデルの訓練において,コア参照情報の組み込みよりも優れていたことを実証した。
論文 参考訳(メタデータ) (2021-10-15T09:28:35Z) - PSD2 Explainable AI Model for Credit Scoring [0.0]
本研究の目的は、信用リスクモデルの予測精度を向上させるための高度な分析手法の開発と試験である。
このプロジェクトは、銀行関連のデータベースに説明可能な機械学習モデルを適用することに焦点を当てている。
論文 参考訳(メタデータ) (2020-11-20T12:12:38Z) - ANLIzing the Adversarial Natural Language Inference Dataset [46.7480191735164]
我々は最近導入された大規模ヒューマン・アンド・モデル・イン・ザ・ループ自然言語推論データセットであるAdversarial NLI(ANLI)の詳細な誤差解析を行う。
本稿では,金の分類ラベルに責任を負う推論のさまざまな側面の詳細なアノテーションスキームを提案し,それをANLI開発セットの3つすべてに手書きする。
論文 参考訳(メタデータ) (2020-10-24T01:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。