論文の概要: e-SNLI-VE: Corrected Visual-Textual Entailment with Natural Language
Explanations
- arxiv url: http://arxiv.org/abs/2004.03744v3
- Date: Thu, 19 Aug 2021 09:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 22:26:53.691305
- Title: e-SNLI-VE: Corrected Visual-Textual Entailment with Natural Language
Explanations
- Title(参考訳): e-snli-ve : 自然言語説明による視覚・テキスト対応の修正
- Authors: Virginie Do, Oana-Maria Camburu, Zeynep Akata and Thomas Lukasiewicz
- Abstract要約: SNLI-VEのエラー率が最も高いクラスを補正するためのデータ収集手法を提案する。
第3に,人間による自然言語の説明をSNLI-VEに追加するe-SNLI-VEを紹介する。
トレーニング時にこれらの説明から学習するモデルをトレーニングし、テスト時にそのような説明を出力します。
- 参考スコア(独自算出の注目度): 87.71914254873857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently proposed SNLI-VE corpus for recognising visual-textual
entailment is a large, real-world dataset for fine-grained multimodal
reasoning. However, the automatic way in which SNLI-VE has been assembled (via
combining parts of two related datasets) gives rise to a large number of errors
in the labels of this corpus. In this paper, we first present a data collection
effort to correct the class with the highest error rate in SNLI-VE. Secondly,
we re-evaluate an existing model on the corrected corpus, which we call
SNLI-VE-2.0, and provide a quantitative comparison with its performance on the
non-corrected corpus. Thirdly, we introduce e-SNLI-VE, which appends
human-written natural language explanations to SNLI-VE-2.0. Finally, we train
models that learn from these explanations at training time, and output such
explanations at testing time.
- Abstract(参考訳): 最近提案されたSNLI-VEコーパスは、微細なマルチモーダル推論のための大規模な実世界のデータセットである。
しかし、SNLI-VEが(関連する2つのデータセットの一部を組み合わせて)組み立てられた自動的な方法は、このコーパスのラベルに多数のエラーを引き起こす。
本稿ではまず,SNLI-VEのエラー率が最も高いクラスを補正するためのデータ収集手法を提案する。
次に,snli-ve-2.0と呼ばれる修正コーパス上での既存モデルの再評価を行い,非修正コーパスの性能と定量的比較を行った。
第3に,人間による自然言語の説明をSNLI-VE-2.0に追加するe-SNLI-VEを紹介する。
最後に、これらの説明から学習したモデルをトレーニング時にトレーニングし、テスト時にその説明を出力する。
関連論文リスト
- A Novel Cartography-Based Curriculum Learning Method Applied on RoNLI: The First Romanian Natural Language Inference Corpus [71.77214818319054]
自然言語推論は自然言語理解のプロキシである。
ルーマニア語のNLIコーパスは公開されていない。
58Kの訓練文対からなるルーマニア初のNLIコーパス(RoNLI)を紹介する。
論文 参考訳(メタデータ) (2024-05-20T08:41:15Z) - Improving Domain-Specific Retrieval by NLI Fine-Tuning [64.79760042717822]
本稿では、自然言語推論(NLI)データの微調整の可能性を調べ、情報検索とランキングを改善する。
コントラスト損失とNLIデータを利用した教師あり手法により細調整された単言語文エンコーダと多言語文エンコーダを併用する。
この結果から,NLIの微調整によりタスクおよび言語間のモデルの性能が向上し,単言語モデルと多言語モデルが改良される可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-06T12:40:58Z) - Can current NLI systems handle German word order? Investigating language
model performance on a new German challenge set of minimal pairs [3.0534660670547873]
英語と比較して、ドイツ語の語順は自由であり、自然言語推論(NLI)にさらなる課題をもたらす。
We create WOGLI (Word Order in German Language Inference), a first adversarial NLI dataset for German word Order。
翻訳されたNLIデータに基づいて微調整された現在のドイツのオートエンコーディングモデルがこの課題に対処できることを示す。
論文 参考訳(メタデータ) (2023-06-07T15:33:07Z) - Embracing Ambiguity: Shifting the Training Target of NLI Models [21.153381668435145]
自然言語推論(NLI)タスクにおけるアノテータのラベル分布を推定する学習オプションについて検討する。
このデータを微調整すると,ChaosNLIの発散スコアを低減できることが示され,言語的曖昧さを捉えるための第一歩として期待できる。
論文 参考訳(メタデータ) (2021-06-06T03:18:53Z) - LIREx: Augmenting Language Inference with Relevant Explanation [1.4780878458667916]
自然言語説明(NLE)は、アノテータがラベルをデータインスタンスに割り当てる際の有理性を識別するデータアノテーションの一種である。
nlesは人間の推論をより良く捉えているが、自然言語推論にはあまり役に立たない。
我々は、論理型説明生成器とインスタンスセレクタの両方を組み込んで、関連するNLEのみを選択する新しいフレームワーク LIREx を提案する。
論文 参考訳(メタデータ) (2020-12-16T18:49:29Z) - Evaluating Semantic Accuracy of Data-to-Text Generation with Natural
Language Inference [3.42658286826597]
データ・トゥ・テキスト(D2T)の生成を評価する上での大きな課題は、生成されたテキストの意味的精度を測定することである。
我々は、自然言語推論(NLI)のために事前訓練されたニューラルネットワークモデルに基づいて、D2T生成の意味的精度を評価するための新しい指標を提案する。
近年の2つのD2Tデータセットに対する実験により, 誤ったシステム出力の同定において, 精度の高い測定値が得られた。
論文 参考訳(メタデータ) (2020-11-21T16:37:28Z) - Word Shape Matters: Robust Machine Translation with Visual Embedding [78.96234298075389]
文字レベルNLPモデルの入力シンボルを新たに符号化する。
文字が印刷されたときの画像を通して各文字の形状をエンコードする。
我々はこの新たな戦略を視覚的埋め込みと呼び、NLPモデルの堅牢性を向上させることが期待されている。
論文 参考訳(メタデータ) (2020-10-20T04:08:03Z) - Improving Text Generation with Student-Forcing Optimal Transport [122.11881937642401]
トレーニングモードとテストモードで生成されたシーケンスに最適なトランスポート(OT)を提案する。
テキストシーケンスの構造的および文脈的情報に基づいて、OT学習を改善するための拡張も提案されている。
提案手法の有効性は,機械翻訳,テキスト要約,テキスト生成タスクにおいて検証される。
論文 参考訳(メタデータ) (2020-10-12T19:42:25Z) - Mining Knowledge for Natural Language Inference from Wikipedia
Categories [53.26072815839198]
NLIおよびLEタスクのモデル性能を改善するためのリソースであるWikiNLIを紹介する。
ウィキペディアには、自然に注釈付けされたカテゴリー階層から作られた428,899の句が含まれている。
我々は、BERTやRoBERTaのような強力なベースラインをWikiNLIで事前訓練し、下流タスクでモデルを転送することで改善できることを示します。
論文 参考訳(メタデータ) (2020-10-03T00:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。