論文の概要: Looking Beyond Sentence-Level Natural Language Inference for Downstream
Tasks
- arxiv url: http://arxiv.org/abs/2009.09099v1
- Date: Fri, 18 Sep 2020 21:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 02:06:33.255268
- Title: Looking Beyond Sentence-Level Natural Language Inference for Downstream
Tasks
- Title(参考訳): 下流タスクのための文レベルの自然言語推論
- Authors: Anshuman Mishra, Dhruvesh Patel, Aparna Vijayakumar, Xiang Li, Pavan
Kapanipathi, Kartik Talamadupula
- Abstract要約: 近年,自然言語推論(NLI)タスクが注目されている。
本稿では,この不満足な約束を,質問応答(QA)とテキスト要約という2つの下流タスクのレンズから検討する。
我々は、NLIデータセットとこれらの下流タスクの主な違いが前提の長さに関係していると推測する。
- 参考スコア(独自算出の注目度): 15.624486319943015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the Natural Language Inference (NLI) task has garnered
significant attention, with new datasets and models achieving near human-level
performance on it. However, the full promise of NLI -- particularly that it
learns knowledge that should be generalizable to other downstream NLP tasks --
has not been realized. In this paper, we study this unfulfilled promise from
the lens of two downstream tasks: question answering (QA), and text
summarization. We conjecture that a key difference between the NLI datasets and
these downstream tasks concerns the length of the premise; and that creating
new long premise NLI datasets out of existing QA datasets is a promising avenue
for training a truly generalizable NLI model. We validate our conjecture by
showing competitive results on the task of QA and obtaining the best reported
results on the task of Checking Factual Correctness of Summaries.
- Abstract(参考訳): 近年、自然言語推論(nli)タスクは、人間に近いパフォーマンスを達成する新しいデータセットとモデルによって、大きな注目を集めている。
しかし、NLIの完全な約束、特に他の下流のNLPタスクに一般化可能な知識を学ぶことは実現されていない。
本稿では,質問応答(QA)とテキスト要約という2つの下流タスクのレンズから,この未完の約束を考察する。
既存のQAデータセットから新たな長期的NLIデータセットを作成することは、真に一般化可能なNLIモデルをトレーニングするための有望な道である。
提案手法は,QAの課題に対する競争結果を提示し,サマリーの事実的正当性を確認するタスクに関する最良の報告結果を得ることにより,予測を検証した。
関連論文リスト
- SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - MinPrompt: Graph-based Minimal Prompt Data Augmentation for Few-shot Question Answering [64.6741991162092]
オープンドメイン質問応答のための最小限のデータ拡張フレームワークMinPromptを提案する。
我々は、生テキストをグラフ構造に変換し、異なる事実文間の接続を構築する。
次に、グラフアルゴリズムを適用して、原文のほとんどの情報をカバーするのに必要な最小限の文の集合を識別する。
同定された文サブセットに基づいてQAペアを生成し、選択した文に基づいてモデルをトレーニングし、最終モデルを得る。
論文 参考訳(メタデータ) (2023-10-08T04:44:36Z) - With a Little Push, NLI Models can Robustly and Efficiently Predict
Faithfulness [19.79160738554967]
条件付き言語モデルは、入力によってサポートされない不誠実な出力を生成します。
我々は、タスク適応型データ拡張と堅牢な推論手順を組み合わせることで、純粋なNLIモデルの方がより複雑なメトリクスより優れていることを示す。
論文 参考訳(メタデータ) (2023-05-26T11:00:04Z) - Falsesum: Generating Document-level NLI Examples for Recognizing Factual
Inconsistency in Summarization [63.21819285337555]
高品質なタスク指向の例でトレーニングデータを拡張した場合,NLIモデルがこのタスクに有効であることを示す。
我々は、制御可能なテキスト生成モデルを利用して、人間の注釈付き要約を摂動させるデータ生成パイプラインであるFalsesumを紹介した。
本研究では,Falsesumを付加したNLIデータセットでトレーニングしたモデルにより,4つのベンチマークを用いて,要約における事実整合性を検出することにより,最先端のパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2022-05-12T10:43:42Z) - Stretching Sentence-pair NLI Models to Reason over Long Documents and
Clusters [35.103851212995046]
自然言語推論(NLI)は,文ペア間の意味的関係を推定するフレームワークとして,NLPコミュニティによって広く研究されている。
我々は、NLIモデルの実アプリケーションへの直接ゼロショット適用性について、訓練された文ペア設定を超えて検討する。
本研究では,ContractNLIデータセット上で,フルドキュメント上で動作し,最先端のパフォーマンスを実現するための新たなアグリゲーション手法を開発した。
論文 参考訳(メタデータ) (2022-04-15T12:56:39Z) - DocNLI: A Large-scale Dataset for Document-level Natural Language
Inference [55.868482696821815]
自然言語推論(NLI)は、様々なNLP問題を解決するための統一的なフレームワークとして定式化されている。
ドキュメントレベルのNLI用に新たに構築された大規模データセットであるDocNLIを紹介する。
論文 参考訳(メタデータ) (2021-06-17T13:02:26Z) - An Empirical Survey of Data Augmentation for Limited Data Learning in
NLP [88.65488361532158]
豊富なデータへの依存は、低リソース設定や新しいタスクにNLPモデルを適用するのを防ぐ。
NLPにおけるデータ効率を改善する手段として,データ拡張手法が検討されている。
限定ラベル付きデータ設定におけるNLPのデータ拡張に関する最近の進展を実証的に調査する。
論文 参考訳(メタデータ) (2021-06-14T15:27:22Z) - Reading Comprehension as Natural Language Inference: A Semantic Analysis [15.624486319943015]
質問回答(QA)における自然言語推論(NLI)の有用性について検討する。
我々は、利用可能な最大のRCデータセット(RACE)の1つをNLI形式に変換し、両形式の最先端モデル(RoBERTa)の性能を比較する。
我々は、データをコヒーレントな包含形式、構造化された質問応答結合形式で提示するときに、モデルがよりよく機能できる明確なカテゴリを強調した。
論文 参考訳(メタデータ) (2020-10-04T22:50:59Z) - Exploring and Predicting Transferability across NLP Tasks [115.6278033699853]
本研究では,33のNLPタスク間の伝達可能性について検討した。
以上の結果から,転帰学習は従来考えられていたよりも有益であることが示唆された。
また,特定の対象タスクに対して最も転送可能なソースタスクを予測するために使用できるタスク埋め込みも開発した。
論文 参考訳(メタデータ) (2020-05-02T09:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。