論文の概要: Leveraging Affirmative Interpretations from Negation Improves Natural
Language Understanding
- arxiv url: http://arxiv.org/abs/2210.14486v1
- Date: Wed, 26 Oct 2022 05:22:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 14:22:49.024026
- Title: Leveraging Affirmative Interpretations from Negation Improves Natural
Language Understanding
- Title(参考訳): 否定からの肯定的解釈の活用は自然言語理解を改善する
- Authors: Md Mosharaf Hossain and Eduardo Blanco
- Abstract要約: 否定は多くの自然言語理解タスクにおいて課題となる。
3つの自然言語理解タスクに対して,このようなメリットモデルを行うことが示される。
我々は,否定文を付与したプラグアンドプレイ型ニューラルジェネレータを構築し,肯定的な解釈を生成する。
- 参考スコア(独自算出の注目度): 10.440501875161003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Negation poses a challenge in many natural language understanding tasks.
Inspired by the fact that understanding a negated statement often requires
humans to infer affirmative interpretations, in this paper we show that doing
so benefits models for three natural language understanding tasks. We present
an automated procedure to collect pairs of sentences with negation and their
affirmative interpretations, resulting in over 150,000 pairs. Experimental
results show that leveraging these pairs helps (a) T5 generate affirmative
interpretations from negations in a previous benchmark, and (b) a RoBERTa-based
classifier solve the task of natural language inference. We also leverage our
pairs to build a plug-and-play neural generator that given a negated statement
generates an affirmative interpretation. Then, we incorporate the pretrained
generator into a RoBERTa-based classifier for sentiment analysis and show that
doing so improves the results. Crucially, our proposal does not require any
manual effort.
- Abstract(参考訳): 否定は多くの自然言語理解タスクにおいて課題となる。
否定文の理解には肯定的解釈の推論がしばしば必要であるという事実に着想を得て,本論文では,3つの自然言語理解タスクに対して,そのような便益モデルを行うことが示される。
我々は,否定文と肯定解釈文のペアを収集し,その結果15万組以上の文を収集する自動手順を提案する。
実験の結果、これらのペアを活用することが
(a)T5は、前回のベンチマークで否定から肯定的な解釈を生成し、
b)RoBERTaベースの分類器は自然言語推論の課題を解決する。
また、ペアを活用してプラグアンドプレイのニューラルジェネレータを構築し、否定的な文が肯定的な解釈を生成する。
そして,この事前学習したジェネレータを,感情分析のためのRoBERTaベースの分類器に組み込んで,その結果を改善することを示す。
重要なことに、我々の提案は手作業を必要としない。
関連論文リスト
- Paraphrasing in Affirmative Terms Improves Negation Understanding [9.818585902859363]
否定は共通の言語現象である。
本研究では,否定を伴う推論を必要とする大規模コーパスであるCondaQAの改良と5つの自然言語理解タスクを示す。
論文 参考訳(メタデータ) (2024-06-11T17:30:03Z) - Negation Triplet Extraction with Syntactic Dependency and Semantic Consistency [37.99421732397288]
SSENEはマルチタスク学習フレームワークを備えたデコーダアーキテクチャのPLM(Generative Pretrained Language Model)に基づいて構築されている。
我々は,Meituanの現実世界プラットフォームからのユーザレビューに基づいて,高品質な中国語データセットNegCommentを構築した。
論文 参考訳(メタデータ) (2024-04-15T14:28:33Z) - Deep Natural Language Feature Learning for Interpretable Prediction [1.6114012813668932]
本稿では,メインの複雑なタスクを仲介しやすいサブタスクの集合に分解する手法を提案する。
本手法では,これらの質問に対する回答からなるベクトルで各例を表現できる。
我々は,学生のオープンエンド数学試験に対する回答の不整合性の検出と,気候変動と農業学に関する科学的論文の体系的な文献レビューのための要約のスクリーニングという,2つのまったく異なるタスクにこの手法を適用した。
論文 参考訳(メタデータ) (2023-11-09T21:43:27Z) - We're Afraid Language Models Aren't Modeling Ambiguity [136.8068419824318]
あいまいさの管理は人間の言語理解の重要な部分です。
文中のあいまいさは,他の文との係り受け関係に与える影響によって特徴付けられる。
我々は,多ラベルNLIモデルが曖昧さによって誤解を招く野生の政治的主張にフラグを付けることができることを示す。
論文 参考訳(メタデータ) (2023-04-27T17:57:58Z) - CONDAQA: A Contrastive Reading Comprehension Dataset for Reasoning about
Negation [21.56001677478673]
本稿では,段落における否定文の意味に関する推論を必要とする,最初の英語読解データセットを提案する。
CONDAQAは1,182組の質問応答ペアと200以上のユニークな否定的手がかりを備える。
CONDAQAの最高のパフォーマンスモデル(UnifiedQA-v2-3b)は、我々の一貫性基準で42%しか達成できません。
論文 参考訳(メタデータ) (2022-11-01T06:10:26Z) - Not another Negation Benchmark: The NaN-NLI Test Suite for Sub-clausal
Negation [59.307534363825816]
否定は現在の言語モデルでは不十分だが、この問題の範囲は広く理解されていない。
自然言語推論(NLI)テストスイートを導入し,NLP手法の能力を検証した。
論文 参考訳(メタデータ) (2022-10-06T23:39:01Z) - A Question-Answer Driven Approach to Reveal Affirmative Interpretations
from Verbal Negations [6.029488932793797]
我々は4,472人の口頭弁論者からなる新しいコーパスを作成し、67.1%が実際に出来事が起こったことを伝えていることを発見した。
アノテーションは、肯定的な解釈を伝える3001の否定に対して7,277の質問を生成し、答える。
論文 参考訳(メタデータ) (2022-05-23T17:08:30Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Probing as Quantifying the Inductive Bias of Pre-trained Representations [99.93552997506438]
本稿では,特定のタスクに対する表現の帰納的バイアスを評価することを目的とした,探索のための新しいフレームワークを提案する。
トークン、アーク、文レベルの一連のタスクに我々のフレームワークを適用します。
論文 参考訳(メタデータ) (2021-10-15T22:01:16Z) - Understanding by Understanding Not: Modeling Negation in Language Models [81.21351681735973]
否定は自然言語の中核構造である。
本稿では,否定された総称文に基づく不一致目的を用いて,言語モデリング目標の強化を提案する。
否定されたLAMAデータセットの平均top1エラー率を4%に削減します。
論文 参考訳(メタデータ) (2021-05-07T21:58:35Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。