論文の概要: Improvements and Extensions on Metaphor Detection
- arxiv url: http://arxiv.org/abs/2012.04540v1
- Date: Mon, 7 Dec 2020 08:17:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:50:48.431497
- Title: Improvements and Extensions on Metaphor Detection
- Title(参考訳): メタファー検出の改善と拡張
- Authors: Weicheng Ma, Ruibo Liu, Lili Wang, Soroush Vosoughi
- Abstract要約: メタファ検出タスク(md)は、文字言語からのメタファの検出と解釈を目的としている。
私達のモデルは私達の評価の大きいマージンによって前の最先端のモデルより優秀です。
- 参考スコア(独自算出の注目度): 7.899055512130904
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Metaphors are ubiquitous in human language. The metaphor detection task (MD)
aims at detecting and interpreting metaphors from written language, which is
crucial in natural language understanding (NLU) research. In this paper, we
introduce a pre-trained Transformer-based model into MD. Our model outperforms
the previous state-of-the-art models by large margins in our evaluations, with
relative improvements on the F-1 score from 5.33% to 28.39%. Second, we extend
MD to a classification task about the metaphoricity of an entire piece of text
to make MD applicable in more general NLU scenes. Finally, we clean up the
improper or outdated annotations in one of the MD benchmark datasets and
re-benchmark it with our Transformer-based model. This approach could be
applied to other existing MD datasets as well, since the metaphoricity
annotations in these benchmark datasets may be outdated. Future research
efforts are also necessary to build an up-to-date and well-annotated dataset
consisting of longer and more complex texts.
- Abstract(参考訳): メタファーは人間の言語でユビキタスである。
メタファ検出タスク(MD)は,自然言語理解(NLU)研究において重要な,書き言葉からのメタファの検出と解釈を目的とする。
本稿では,事前学習したTransformerベースのモデルをMDに導入する。
f-1のスコアは5.33%から28.39%に相対的に改善した。
第二に、MDをテキスト全体の比喩性に関する分類タスクに拡張し、より一般的なNLUシーンに適用できるようにします。
最後に、MDベンチマークのデータセットの1つで不適切なあるいは時代遅れのアノテーションを掃除し、Transformerベースのモデルで再ベンチマークします。
これらのベンチマークデータセットのメタファ性アノテーションは時代遅れになる可能性があるため、このアプローチは他の既存のMDデータセットにも適用することができる。
今後の研究は、より長く複雑なテキストからなる、最新でよく注釈されたデータセットを構築するためにも必要となる。
関連論文リスト
- FineCops-Ref: A new Dataset and Task for Fine-Grained Compositional Referring Expression Comprehension [10.482908189805872]
Referring Expression (REC) は言語理解能力、画像理解能力、言語と画像の接地能力を客観的に評価する重要なクロスモーダルタスクである。
我々は2つの重要な特徴を特徴とする新しいRECデータセットを構築した。
これには、既存のデータに基づいて微細な編集と生成によって作成された否定的なテキストと画像が含まれる。
論文 参考訳(メタデータ) (2024-09-23T06:56:51Z) - X-ray Made Simple: Radiology Report Generation and Evaluation with Layman's Terms [25.871814979179373]
ラジオロジーレポート生成(RRG)は多モード生成モデルの進歩によって大きな進歩を遂げた。
既存の語彙ベースのメトリクス(例えばBLEU)によるRRGのハイパフォーマンスは、単なるミラージュ(mirage)である。
我々は、レイマンの用語ベースのデータセット、評価およびトレーニングフレームワークであるRRGフレームワークを提案することによって、この問題に意図せずにアプローチする。
論文 参考訳(メタデータ) (2024-06-25T19:52:01Z) - Revisiting a Pain in the Neck: Semantic Phrase Processing Benchmark for Language Models [10.482557806309174]
セマンティックフレーズ処理タスクにおける言語モデル(LM)のテストを可能にする総合評価スイートであるLexBenchを紹介する。
我々のベンチマークにより、モデルアーキテクチャにおける15のLMの性能と、分類、抽出、解釈タスクにおけるパラメータスケールを評価する。
我々のベンチマーク結果は,意味的フレーズ理解におけるLMの汎用的能力の向上を目的とした今後の研究に役立つだろう。
論文 参考訳(メタデータ) (2024-05-05T09:20:38Z) - RegaVAE: A Retrieval-Augmented Gaussian Mixture Variational Auto-Encoder
for Language Modeling [79.56442336234221]
可変オートエンコーダ(VAE)に基づく検索拡張言語モデルであるRegaVAEを紹介する。
テキストコーパスを潜在空間にエンコードし、ソースとターゲットの両方のテキストから現在と将来の情報をキャプチャする。
各種データセットに対する実験結果から,テキスト生成品質と幻覚除去の大幅な改善が示された。
論文 参考訳(メタデータ) (2023-10-16T16:42:01Z) - Adversarial Multi-task Learning for End-to-end Metaphor Detection [3.0454955988938743]
本稿では,メタファー検出に基本的な知識を伝達する,新しいマルチタスク学習フレームワークを提案する。
我々は,MD と BSD のデータ分布を同一の機能空間で整列させるために,敵対的トレーニングを活用している。
本手法は完全にエンドツーエンドであり,MDにおけるデータ不足問題を軽減することができる。
論文 参考訳(メタデータ) (2023-05-26T05:28:00Z) - Selective In-Context Data Augmentation for Intent Detection using
Pointwise V-Information [100.03188187735624]
PLMとPVI(pointwise V-information)に基づく新しい手法を導入し,モデル学習におけるデータポイントの有用性を計測する。
提案手法はまず,学習データの小さなシード上でPLMを微調整し,与えられた意図に対応する発話を新たに生成する。
そこで本手法は,大規模言語モデルの表現力を活用し,多様な学習データを生成する。
論文 参考訳(メタデータ) (2023-02-10T07:37:49Z) - Always Keep your Target in Mind: Studying Semantics and Improving
Performance of Neural Lexical Substitution [124.99894592871385]
本稿では,従来の言語モデルと最近の言語モデルの両方を用いた語彙置換手法の大規模比較研究を行う。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによるすでに競合する結果がさらに大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-07T16:16:19Z) - Better Language Model with Hypernym Class Prediction [101.8517004687825]
クラスベース言語モデル (LM) は、コンテキストの疎結合に$n$-gramのLMで対処するために長年開発されてきた。
本研究では,このアプローチをニューラルLMの文脈で再考する。
論文 参考訳(メタデータ) (2022-03-21T01:16:44Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。