論文の概要: Evaluating Pretrained Transformer Models for Entity Linking in
Task-Oriented Dialog
- arxiv url: http://arxiv.org/abs/2112.08327v1
- Date: Wed, 15 Dec 2021 18:20:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 14:45:44.919554
- Title: Evaluating Pretrained Transformer Models for Entity Linking in
Task-Oriented Dialog
- Title(参考訳): タスク指向対話におけるエンティティリンクのための事前学習型トランスフォーマーモデルの評価
- Authors: Sai Muralidhar Jayanthi, Varsha Embar, Karthik Raghunathan
- Abstract要約: 我々は、テキストの短いフレーズを理解するために、異なる事前訓練されたトランスフォーマーモデル(PTM)を評価する。
PTMのいくつかは、従来の手法と比較してサブパー結果を生成する。
これらの欠点のいくつかは、テキスト類似性タスクのために微調整されたPTMを使用することで対処できる。
- 参考スコア(独自算出の注目度): 1.4524096882720263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wide applicability of pretrained transformer models (PTMs) for natural
language tasks is well demonstrated, but their ability to comprehend short
phrases of text is less explored. To this end, we evaluate different PTMs from
the lens of unsupervised Entity Linking in task-oriented dialog across 5
characteristics -- syntactic, semantic, short-forms, numeric and phonetic. Our
results demonstrate that several of the PTMs produce sub-par results when
compared to traditional techniques, albeit competitive to other neural
baselines. We find that some of their shortcomings can be addressed by using
PTMs fine-tuned for text-similarity tasks, which illustrate an improved ability
in comprehending semantic and syntactic correspondences, as well as some
improvements for short-forms, numeric and phonetic variations in entity
mentions. We perform qualitative analysis to understand nuances in their
predictions and discuss scope for further improvements. Code can be found at
https://github.com/murali1996/el_tod
- Abstract(参考訳): 自然言語タスクに対する事前学習型トランスフォーマーモデル(PTM)の適用性は広く実証されているが,テキストの短いフレーズを理解する能力は少ない。
この目的のために,タスク指向対話における教師なしエンティティリンクのレンズから,構文,意味,ショートフォーム,数値,音声の5つの特徴を評価する。
これらの結果から, PTMのいくつかは, 他の神経ベースラインと競合するが, 従来の手法と比較するとサブパーの結果が得られた。
それらの欠点のいくつかは、テキスト類似性タスクにptmsを微調整することで対処できることが判明し、意味的および構文的対応の理解能力が向上し、エンティティ参照における短縮形、数値的および音韻的バリエーションも改善された。
予測におけるニュアンスを理解するための定性的分析を行い、さらなる改善のスコープについて議論する。
コードはhttps://github.com/murali 1996/el_todにある。
関連論文リスト
- Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - Evaluating Semantic Variation in Text-to-Image Synthesis: A Causal Perspective [50.261681681643076]
本稿では,SemVarEffectとSemVarBenchというベンチマークを用いて,テキスト・画像合成における入力のセマンティックな変化と出力の因果性を評価する。
本研究は,T2I合成コミュニティによるヒューマンインストラクション理解の探索を促進する効果的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2024-10-14T08:45:35Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Improving Language Models Meaning Understanding and Consistency by
Learning Conceptual Roles from Dictionary [65.268245109828]
現代事前訓練言語モデル(PLM)の非人間的行動は、その信頼性を損なう主要な原因である。
驚くべき現象は、矛盾した結果を生み出す不整合予測の生成である。
本研究では,PLMの認知度を向上させることで,一貫性のない行動問題を緩和する実践的アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-24T06:15:15Z) - On Conditional and Compositional Language Model Differentiable Prompting [75.76546041094436]
プロンプトは、下流タスクでうまく機能するために、凍結した事前訓練言語モデル(PLM)を適応するための効果的な方法であることが示されている。
タスク命令や入力メタデータを連続的なプロンプトに変換することを学習する新しいモデル Prompt Production System (PRopS) を提案する。
論文 参考訳(メタデータ) (2023-07-04T02:47:42Z) - Teaching Probabilistic Logical Reasoning to Transformers [21.335836561959887]
本研究では,不確実なテキストに対する推論において,トランスフォーマーに基づく言語モデルの有効性を評価する。
本稿では,確率的制約学習という,エンドツーエンドのファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T16:08:20Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - To Augment or Not to Augment? A Comparative Study on Text Augmentation
Techniques for Low-Resource NLP [0.0]
本稿では,構文の変更を行うテキスト拡張手法の3つのカテゴリについて検討する。
音声のタグ付けや依存性解析,セマンティックロールのラベル付けなどにおいて,多種多様な言語ファミリに対して比較を行った。
以上の結果から,mBERTに基づくベースラインの強化により,より高機能化が可能であることが示唆された。
論文 参考訳(メタデータ) (2021-11-18T10:52:48Z) - Training Bi-Encoders for Word Sense Disambiguation [4.149972584899897]
Word Sense Disambiguationの最先端のアプローチは、これらのモデルからの事前訓練された埋め込みとともに語彙情報を活用し、標準評価ベンチマークにおける人間間のアノテータ合意に匹敵する結果を得る。
我々はさらに,多段階事前学習および微調整パイプラインを通じて,Word Sense Disambiguationにおける技術の現状について述べる。
論文 参考訳(メタデータ) (2021-05-21T06:06:03Z) - Analysis and Evaluation of Language Models for Word Sense Disambiguation [18.001457030065712]
トランスフォーマーベースの言語モデルは、嵐によってNLPの多くの分野を取り込んでいる。
BERTは、ワードセンス毎に限られた数のサンプルが利用できる場合でも、高いレベルの感覚の区別を正確に捉えることができる。
BERTとその派生種は既存の評価ベンチマークの大部分を支配している。
論文 参考訳(メタデータ) (2020-08-26T15:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。