論文の概要: Exploring Transitivity in Neural NLI Models through Veridicality
- arxiv url: http://arxiv.org/abs/2101.10713v1
- Date: Tue, 26 Jan 2021 11:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:56:57.220408
- Title: Exploring Transitivity in Neural NLI Models through Veridicality
- Title(参考訳): 検証によるニューラルNLIモデルのトランジシティの探索
- Authors: Hitomi Yanaka, Koji Mineshima, Kentaro Inui
- Abstract要約: 推論関係の推移性に着目する。推論を体系的に描く基本的な性質である。
推移性をキャプチャするモデルは、基本的な推論パターンを構成し、新しい推論を引き出すことができる。
現在のNLIモデルは、推移性推論タスクで一貫してうまく機能しないことがわかります。
- 参考スコア(独自算出の注目度): 39.845425535943534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the recent success of deep neural networks in natural language
processing, the extent to which they can demonstrate human-like generalization
capacities for natural language understanding remains unclear. We explore this
issue in the domain of natural language inference (NLI), focusing on the
transitivity of inference relations, a fundamental property for systematically
drawing inferences. A model capturing transitivity can compose basic inference
patterns and draw new inferences. We introduce an analysis method using
synthetic and naturalistic NLI datasets involving clause-embedding verbs to
evaluate whether models can perform transitivity inferences composed of
veridical inferences and arbitrary inference types. We find that current NLI
models do not perform consistently well on transitivity inference tasks,
suggesting that they lack the generalization capacity for drawing composite
inferences from provided training examples. The data and code for our analysis
are publicly available at https://github.com/verypluming/transitivity.
- Abstract(参考訳): 近年、自然言語処理におけるディープニューラルネットワークの成功にもかかわらず、自然言語理解のための人間のような一般化能力を示すことができる範囲は未定である。
この問題を自然言語推論(nli:domain of natural language inference)の領域で検討し,推論関係の推移性に着目した。
推移性をキャプチャするモデルは、基本的な推論パターンを構成し、新しい推論を引き出すことができる。
本研究では,動詞を包含する合成的・自然主義的NLIデータセットを用いて,モデルが検証的推論と任意の推論型からなる推移性推論を実行できるかどうかを評価する。
現在のNLIモデルは、過渡性推論のタスクで一貫してうまく機能しておらず、与えられたトレーニング例から複合推論を描画する一般化能力がないことを示唆している。
分析のためのデータとコードはhttps://github.com/verypluming/transitivityで公開されている。
関連論文リスト
- Enhancing adversarial robustness in Natural Language Inference using explanations [41.46494686136601]
自然言語推論(NLI)の未探索課題に注目点を当てた。
我々は、広範囲な実験を通じて、モデルに依存しない防衛戦略として、自然言語説明の使用を検証した。
本研究では,広範に使用されている言語生成指標と人間の知覚との相関について検討し,それらが堅牢なNLIモデルへのプロキシとして機能するようにした。
論文 参考訳(メタデータ) (2024-09-11T17:09:49Z) - Constructing Word-Context-Coupled Space Aligned with Associative
Knowledge Relations for Interpretable Language Modeling [0.0]
事前訓練された言語モデルにおけるディープニューラルネットワークのブラックボックス構造は、言語モデリングプロセスの解釈可能性を大幅に制限する。
解釈不能なニューラル表現と解釈不能な統計論理のアライメント処理を導入することで,ワードコンテキスト結合空間(W2CSpace)を提案する。
我々の言語モデルは,関連する最先端手法と比較して,優れた性能と信頼性の高い解釈能力を実現することができる。
論文 参考訳(メタデータ) (2023-05-19T09:26:02Z) - Uncovering More Shallow Heuristics: Probing the Natural Language
Inference Capacities of Transformer-Based Pre-Trained Language Models Using
Syllogistic Patterns [9.031827448667086]
我々は、自然言語推論(NLI)のために微調整されたトランスフォーマーベース事前学習言語モデル(PLM)が使用する浅瀬を探索する。
モデルが特定の浅瀬に強く依存していることの証拠を見つけ、前提と仮説の間の対称性と対称性を拾い上げる。
論文 参考訳(メタデータ) (2022-01-19T14:15:41Z) - Automatically Identifying Semantic Bias in Crowdsourced Natural Language
Inference Datasets [78.6856732729301]
NLIデータセットに仮説を組み込んだ学習空間に"バイアスクラスタ"を見つけるために,モデル駆動で教師なしの手法を導入する。
データセットの仮説分布のセマンティックバイアスを改善するために、介入と追加のラベリングを行うことができる。
論文 参考訳(メタデータ) (2021-12-16T22:49:01Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。