論文の概要: Figurative Language in Recognizing Textual Entailment
- arxiv url: http://arxiv.org/abs/2106.01195v1
- Date: Wed, 2 Jun 2021 14:37:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 20:59:05.802998
- Title: Figurative Language in Recognizing Textual Entailment
- Title(参考訳): 文的内容認識における表現言語
- Authors: Tuhin Chakrabarty, Debanjan Ghosh, Adam Poliak, Smaranda Muresan
- Abstract要約: 既存の5つのデータセットをさまざまな図形言語に活用しています。
我々は、人気のあるRTEデータセットでトレーニングされた最先端のモデルが、比喩言語の異なる側面をいかに捉えているかを評価する。
- 参考スコア(独自算出の注目度): 17.970569365665156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a collection of recognizing textual entailment (RTE) datasets
focused on figurative language. We leverage five existing datasets annotated
for a variety of figurative language -- simile, metaphor, and irony -- and
frame them into over 12,500 RTE examples.We evaluate how well state-of-the-art
models trained on popular RTE datasets capture different aspects of figurative
language. Our results and analyses indicate that these models might not
sufficiently capture figurative language, struggling to perform pragmatic
inference and reasoning about world knowledge. Ultimately, our datasets provide
a challenging testbed for evaluating RTE models.
- Abstract(参考訳): 本稿では、図形言語に焦点をあてたRTEデータセットの集合を紹介する。
我々は、さまざまなフィギュラティブ言語に注釈付けされた5つの既存のデータセット(シミュラ、比喩、皮肉)を活用し、12,500以上のRTEサンプルにフレーム化します。
結果と分析から,これらのモデルでは図形言語を十分に捉えられず,現実的な推論や世界知識の推論に苦慮している可能性が示唆された。
最終的に、私たちのデータセットはRTEモデルを評価する上で困難なテストベッドを提供します。
関連論文リスト
- Pushing the Limits of Vision-Language Models in Remote Sensing without Human Annotations [5.065947993017157]
本研究では、画像復号化機械学習モデルを用いて、視覚言語データセットをキュレートする手法を提案する。
約960万の視覚言語対のデータセットをVHR画像で収集しました。
結果として得られたモデルは、公開可能なビジョン言語データセットを活用できないものよりも優れていた。
論文 参考訳(メタデータ) (2024-09-11T06:36:08Z) - MACT: Model-Agnostic Cross-Lingual Training for Discourse Representation Structure Parsing [4.536003573070846]
意味表現解析モデルのための言語間学習戦略を導入する。
事前訓練された言語モデルにエンコードされた言語間のアライメントを利用する。
実験では、英語、ドイツ語、イタリア語、オランダ語におけるDRS節とグラフ解析の大幅な改善が示されている。
論文 参考訳(メタデータ) (2024-06-03T07:02:57Z) - ConTextual: Evaluating Context-Sensitive Text-Rich Visual Reasoning in Large Multimodal Models [92.60282074937305]
テキストリッチな画像に対して文脈に敏感な推論を必要とする人為的な命令を特徴とする新しいデータセットであるConTextualを紹介した。
そこで本研究では,14の基盤モデルの性能評価実験を行い,人為的な性能基準を確立する。
GPT-4Vとヒトのパフォーマンスの30.8%の有意な性能差を観察した。
論文 参考訳(メタデータ) (2024-01-24T09:07:11Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - Retrieval-based Disentangled Representation Learning with Natural
Language Supervision [61.75109410513864]
本稿では,VDR(Vocabulary Disentangled Retrieval)を提案する。
提案手法では,両エンコーダモデルを用いて語彙空間におけるデータと自然言語の両方を表現する。
論文 参考訳(メタデータ) (2022-12-15T10:20:42Z) - FLUTE: Figurative Language Understanding and Textual Explanations [37.83909874945428]
FLUTEは8000の図式NLIインスタンスのデータセットで、説明とともにリリースします。
我々は、GPT-3を人間の専門家と組み合わせることで、データセットの作成をスケールアップできることを示す。
論文 参考訳(メタデータ) (2022-05-24T23:25:02Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Investigating Robustness of Dialog Models to Popular Figurative Language
Constructs [30.841109045790862]
入力ダイアログコンテキストが図形言語の使用を示す状況において,既存のダイアログモデルの性能を解析する。
既存のモデルが図形言語に対してより堅牢になるための軽量なソリューションを提案する。
論文 参考訳(メタデータ) (2021-10-01T23:55:16Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Probing Contextual Language Models for Common Ground with Visual
Representations [76.05769268286038]
我々は、マッチングと非マッチングの視覚表現を区別する上で、テキストのみの表現がいかに効果的かを評価するための探索モデルを設計する。
以上の結果から,言語表現だけでは,適切な対象カテゴリから画像パッチを検索する強力な信号が得られることがわかった。
視覚的に接地された言語モデルは、例えば検索においてテキストのみの言語モデルよりわずかに優れているが、人間よりもはるかに低い。
論文 参考訳(メタデータ) (2020-05-01T21:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。