論文の概要: LIREx: Augmenting Language Inference with Relevant Explanation
- arxiv url: http://arxiv.org/abs/2012.09157v1
- Date: Wed, 16 Dec 2020 18:49:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 03:11:43.617870
- Title: LIREx: Augmenting Language Inference with Relevant Explanation
- Title(参考訳): LIREx: 関連説明による言語推論の強化
- Authors: Xinyan Zhao, V.G.Vinod Vydiswaran
- Abstract要約: 自然言語説明(NLE)は、アノテータがラベルをデータインスタンスに割り当てる際の有理性を識別するデータアノテーションの一種である。
nlesは人間の推論をより良く捉えているが、自然言語推論にはあまり役に立たない。
我々は、論理型説明生成器とインスタンスセレクタの両方を組み込んで、関連するNLEのみを選択する新しいフレームワーク LIREx を提案する。
- 参考スコア(独自算出の注目度): 1.4780878458667916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language explanations (NLEs) are a special form of data annotation in
which annotators identify rationales (most significant text tokens) when
assigning labels to data instances, and write out explanations for the labels
in natural language based on the rationales. NLEs have been shown to capture
human reasoning better, but not as beneficial for natural language inference
(NLI). In this paper, we analyze two primary flaws in the way NLEs are
currently used to train explanation generators for language inference tasks. We
find that the explanation generators do not take into account the variability
inherent in human explanation of labels, and that the current explanation
generation models generate spurious explanations. To overcome these
limitations, we propose a novel framework, LIREx, that incorporates both a
rationale-enabled explanation generator and an instance selector to select only
relevant, plausible NLEs to augment NLI models. When evaluated on the
standardized SNLI data set, LIREx achieved an accuracy of 91.87%, an
improvement of 0.32 over the baseline and matching the best-reported
performance on the data set. It also achieves significantly better performance
than previous studies when transferred to the out-of-domain MultiNLI data set.
Qualitative analysis shows that LIREx generates flexible, faithful, and
relevant NLEs that allow the model to be more robust to spurious explanations.
The code is available at https://github.com/zhaoxy92/LIREx.
- Abstract(参考訳): 自然言語説明 (NLE) は、アノテータがデータインスタンスにラベルを割り当てるときに有理性(最も重要なテキストトークン)を識別し、その有理性に基づいて自然言語でラベルの説明を書く、特別な形式のデータアノテーションである。
NLEは人間の推論をより良く捉えることが示されているが、自然言語推論(NLI)には有益ではない。
本稿では,現在NLEが言語推論タスクのための説明生成器の訓練に使われている2つの主要な欠陥を分析する。
ラベルの人的説明に固有の変動性を考慮していないこと,そして現在の説明生成モデルが突発的な説明を生成することを確認した。
これらの制約を克服するために、論理型説明生成器とインスタンスセレクタの両方を組み込んだ新しいフレームワーク LIREx を提案し、NLI モデルの拡張に有効な NLE のみを選択する。
標準化されたSNLIデータセットで評価すると、LIRExは91.87%の精度、ベースラインよりも0.32の改善、データセット上で最も報告されたパフォーマンスと一致した。
また、ドメイン外のMultiNLIデータセットに転送した場合、以前の研究よりも大幅にパフォーマンスが向上する。
定性的分析により、LIRExはフレキシブルで忠実で関連するNLEを生成し、モデルが素早い説明のためにより堅牢であることが示される。
コードはhttps://github.com/zhaoxy92/lirexで入手できる。
関連論文リスト
- ELCoRec: Enhance Language Understanding with Co-Propagation of Numerical and Categorical Features for Recommendation [38.64175351885443]
大規模言語モデルは自然言語処理(NLP)領域で栄えている。
レコメンデーション指向の微調整モデルによって示された知性にもかかわらず、LLMはユーザーの行動パターンを完全に理解するのに苦労している。
既存の作業は、その重要な情報を導入することなく、与えられたテキストデータに対してのみLLMを微調整するだけである。
論文 参考訳(メタデータ) (2024-06-27T01:37:57Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - FOLIO: Natural Language Reasoning with First-Order Logic [147.50480350846726]
我々は、自然言語(NL)における推論のための人間注釈付き、論理的に複雑で多様なデータセットであるFOLIOを提示する。
FOLIOは1,430の例(一意の結論)で構成され、それぞれが487の前提のうちの1つと組み合わせて、それぞれの結論の妥当性を導出的に推論する。
NL推論とNL-FOL変換の両方において、複数の最先端言語モデルをベンチマークする。
論文 参考訳(メタデータ) (2022-09-02T06:50:11Z) - Stretching Sentence-pair NLI Models to Reason over Long Documents and
Clusters [35.103851212995046]
自然言語推論(NLI)は,文ペア間の意味的関係を推定するフレームワークとして,NLPコミュニティによって広く研究されている。
我々は、NLIモデルの実アプリケーションへの直接ゼロショット適用性について、訓練された文ペア設定を超えて検討する。
本研究では,ContractNLIデータセット上で,フルドキュメント上で動作し,最先端のパフォーマンスを実現するための新たなアグリゲーション手法を開発した。
論文 参考訳(メタデータ) (2022-04-15T12:56:39Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - Discriminatively-Tuned Generative Classifiers for Robust Natural
Language Inference [59.62779187457773]
自然言語推論のための生成型分類器(NLI)を提案する。
差別モデルやBERTのような大規模事前学習言語表現モデルを含む5つのベースラインと比較する。
実験の結果、GenNLIはいくつかの挑戦的なNLI実験環境において差別的ベースラインと事前訓練ベースラインの両方に優れていた。
論文 参考訳(メタデータ) (2020-10-08T04:44:00Z) - Reading Comprehension as Natural Language Inference: A Semantic Analysis [15.624486319943015]
質問回答(QA)における自然言語推論(NLI)の有用性について検討する。
我々は、利用可能な最大のRCデータセット(RACE)の1つをNLI形式に変換し、両形式の最先端モデル(RoBERTa)の性能を比較する。
我々は、データをコヒーレントな包含形式、構造化された質問応答結合形式で提示するときに、モデルがよりよく機能できる明確なカテゴリを強調した。
論文 参考訳(メタデータ) (2020-10-04T22:50:59Z) - Mining Knowledge for Natural Language Inference from Wikipedia
Categories [53.26072815839198]
NLIおよびLEタスクのモデル性能を改善するためのリソースであるWikiNLIを紹介する。
ウィキペディアには、自然に注釈付けされたカテゴリー階層から作られた428,899の句が含まれている。
我々は、BERTやRoBERTaのような強力なベースラインをWikiNLIで事前訓練し、下流タスクでモデルを転送することで改善できることを示します。
論文 参考訳(メタデータ) (2020-10-03T00:45:01Z) - NILE : Natural Language Inference with Faithful Natural Language
Explanations [10.074153632701952]
ラベル特定説明(NILE)に対する自然言語推論を提案する。
NILEは、ラベル固有の説明を自動生成し、その忠実な説明とともにラベルを作成する新しいNLI手法である。
我々は, NILE の説明の忠実さを, 対応する説明に対する決定の敏感さの観点から論じる。
論文 参考訳(メタデータ) (2020-05-25T13:56:03Z) - e-SNLI-VE: Corrected Visual-Textual Entailment with Natural Language
Explanations [87.71914254873857]
SNLI-VEのエラー率が最も高いクラスを補正するためのデータ収集手法を提案する。
第3に,人間による自然言語の説明をSNLI-VEに追加するe-SNLI-VEを紹介する。
トレーニング時にこれらの説明から学習するモデルをトレーニングし、テスト時にそのような説明を出力します。
論文 参考訳(メタデータ) (2020-04-07T23:12:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。