論文の概要: Reading Comprehension as Natural Language Inference: A Semantic Analysis
- arxiv url: http://arxiv.org/abs/2010.01713v1
- Date: Sun, 4 Oct 2020 22:50:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 02:57:44.160137
- Title: Reading Comprehension as Natural Language Inference: A Semantic Analysis
- Title(参考訳): 自然言語推論としての理解を読む:意味分析
- Authors: Anshuman Mishra, Dhruvesh Patel, Aparna Vijayakumar, Xiang Li, Pavan
Kapanipathi, Kartik Talamadupula
- Abstract要約: 質問回答(QA)における自然言語推論(NLI)の有用性について検討する。
我々は、利用可能な最大のRCデータセット(RACE)の1つをNLI形式に変換し、両形式の最先端モデル(RoBERTa)の性能を比較する。
我々は、データをコヒーレントな包含形式、構造化された質問応答結合形式で提示するときに、モデルがよりよく機能できる明確なカテゴリを強調した。
- 参考スコア(独自算出の注目度): 15.624486319943015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the recent past, Natural language Inference (NLI) has gained significant
attention, particularly given its promise for downstream NLP tasks. However,
its true impact is limited and has not been well studied. Therefore, in this
paper, we explore the utility of NLI for one of the most prominent downstream
tasks, viz. Question Answering (QA). We transform the one of the largest
available MRC dataset (RACE) to an NLI form, and compare the performances of a
state-of-the-art model (RoBERTa) on both these forms. We propose new
characterizations of questions, and evaluate the performance of QA and NLI
models on these categories. We highlight clear categories for which the model
is able to perform better when the data is presented in a coherent entailment
form, and a structured question-answer concatenation form, respectively.
- Abstract(参考訳): 最近の自然言語推論(NLI)は、特に下流のNLPタスクを約束していることから、大きな注目を集めている。
しかし、その真の影響は限定的であり、十分に研究されていない。
そこで本稿では,最も顕著な下流タスクの一つであるvizに対するNLIの有用性について検討する。
質問応答 (QA)。
我々は、利用可能な最大のRCデータセット(RACE)の1つをNLI形式に変換し、両形態の最先端モデル(RoBERTa)の性能を比較する。
本稿では,これらのカテゴリにおけるQAモデルとNLIモデルの性能評価を行う。
我々は,データのコヒーレントな包含形式と構造化された問合せ形式をそれぞれ提示した場合に,モデルがより優れた性能を発揮するための明確なカテゴリを強調した。
関連論文リスト
- Evaluating Generative Language Models in Information Extraction as Subjective Question Correction [49.729908337372436]
本稿では,新しい評価手法SQC-Scoreを提案する。
主観的質問訂正の原則に着想を得て,新しい評価手法SQC-Scoreを提案する。
3つの情報抽出タスクの結果から,SQC-Scoreは基準値よりもアノテータの方が好ましいことが示された。
論文 参考訳(メタデータ) (2024-04-04T15:36:53Z) - Natural Language Processing for Dialects of a Language: A Survey [56.93337350526933]
最先端自然言語処理(NLP)モデルは、大規模なトレーニングコーパスでトレーニングされ、評価データセットで最上位のパフォーマンスを報告します。
この調査は、これらのデータセットの重要な属性である言語の方言を掘り下げる。
方言データセットに対するNLPモデルの性能劣化と言語技術のエクイティへのその影響を動機として,我々はデータセットやアプローチの観点から,方言に対するNLPの過去の研究を調査した。
論文 参考訳(メタデータ) (2024-01-11T03:04:38Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - With a Little Push, NLI Models can Robustly and Efficiently Predict
Faithfulness [19.79160738554967]
条件付き言語モデルは、入力によってサポートされない不誠実な出力を生成します。
我々は、タスク適応型データ拡張と堅牢な推論手順を組み合わせることで、純粋なNLIモデルの方がより複雑なメトリクスより優れていることを示す。
論文 参考訳(メタデータ) (2023-05-26T11:00:04Z) - Compositional Exemplars for In-context Learning [21.961094715261133]
大規模な事前学習言語モデル(LM)は、印象的なインコンテキスト学習(ICL)能力を示している。
本稿では,CEIL (Compositional Exemplars for In-context Learning) を提案する。
我々は、感情分析、パラフレーズ検出、自然言語推論、コモンセンス推論、オープンドメイン質問応答、コード生成、意味解析を含む7つの異なるNLPタスクから、CEILを12の分類および生成データセットで検証する。
論文 参考訳(メタデータ) (2023-02-11T14:02:08Z) - Entity Disambiguation with Entity Definitions [50.01142092276296]
ローカルモデルはEntity Disambiguation (ED)で最近驚くべきパフォーマンスを達成した
それまでの研究は、各候補者のテキスト表現として、ウィキペディアのタイトルのみを使うことに限られていた。
本稿では、この制限に対処し、より表現力のあるテキスト表現がそれを緩和できる範囲について検討する。
提案する6つのベンチマークのうち2つに新たな技術の現状を報告し,未知のパターンに対する一般化能力を強く改善する。
論文 参考訳(メタデータ) (2022-10-11T17:46:28Z) - Stretching Sentence-pair NLI Models to Reason over Long Documents and
Clusters [35.103851212995046]
自然言語推論(NLI)は,文ペア間の意味的関係を推定するフレームワークとして,NLPコミュニティによって広く研究されている。
我々は、NLIモデルの実アプリケーションへの直接ゼロショット適用性について、訓練された文ペア設定を超えて検討する。
本研究では,ContractNLIデータセット上で,フルドキュメント上で動作し,最先端のパフォーマンスを実現するための新たなアグリゲーション手法を開発した。
論文 参考訳(メタデータ) (2022-04-15T12:56:39Z) - DocNLI: A Large-scale Dataset for Document-level Natural Language
Inference [55.868482696821815]
自然言語推論(NLI)は、様々なNLP問題を解決するための統一的なフレームワークとして定式化されている。
ドキュメントレベルのNLI用に新たに構築された大規模データセットであるDocNLIを紹介する。
論文 参考訳(メタデータ) (2021-06-17T13:02:26Z) - Looking Beyond Sentence-Level Natural Language Inference for Downstream
Tasks [15.624486319943015]
近年,自然言語推論(NLI)タスクが注目されている。
本稿では,この不満足な約束を,質問応答(QA)とテキスト要約という2つの下流タスクのレンズから検討する。
我々は、NLIデータセットとこれらの下流タスクの主な違いが前提の長さに関係していると推測する。
論文 参考訳(メタデータ) (2020-09-18T21:44:35Z) - Ranking Clarification Questions via Natural Language Inference [25.433933534561568]
自然言語クエリが与えられた場合、質問を明確にする機械は、実用的な自然言語処理システムにおいて非常に有用である。
明確化質問のランク付けの課題として,あるポストの欠落に関連する明確化質問が,自然言語推論(NLI)の特別な事例とみなすことができる,という仮説を立てる。
我々は、この仮説を、NLIおよびMulti-NLIデータセットに基づいて微調整されたSiamese BERTモデルからの表現をモデルに組み込むことで検証する。
論文 参考訳(メタデータ) (2020-08-18T01:32:29Z) - Coreferential Reasoning Learning for Language Representation [88.14248323659267]
本稿では,コンテキスト内でコアファーデンシャル関係をキャプチャ可能な新しい言語表現モデルCorefBERTを提案する。
実験の結果,既存のベースラインモデルと比較して,CorefBERTは下流のNLPタスクにおいて一貫した大幅な改善を達成できることがわかった。
論文 参考訳(メタデータ) (2020-04-15T03:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。