論文の概要: A deep Natural Language Inference predictor without language-specific
training data
- arxiv url: http://arxiv.org/abs/2309.02887v1
- Date: Wed, 6 Sep 2023 10:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 15:57:20.487674
- Title: A deep Natural Language Inference predictor without language-specific
training data
- Title(参考訳): 言語固有の訓練データを持たない深層自然言語推論予測器
- Authors: Lorenzo Corradi and Alessandro Manenti and Francesca Del Bonifro and
Francesco Setti and Dario Del Sorbo
- Abstract要約: 本研究では,言語固有の訓練データセットを使わずに,目的言語における文のペア間の推論関係(NLI)に対処するためのNLP手法を提案する。
我々は、同じトレーニング済みモデルの2つのインスタンスとともに、手動で翻訳される汎用翻訳データセットを利用する。
このモデルは、機械翻訳Stanford NLIテストデータセット、機械翻訳Multi-Genre NLIテストデータセット、手動翻訳RTE3-ITAテストデータセットで評価されている。
- 参考スコア(独自算出の注目度): 44.26507854087991
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper we present a technique of NLP to tackle the problem of
inference relation (NLI) between pairs of sentences in a target language of
choice without a language-specific training dataset. We exploit a generic
translation dataset, manually translated, along with two instances of the same
pre-trained model - the first to generate sentence embeddings for the source
language, and the second fine-tuned over the target language to mimic the
first. This technique is known as Knowledge Distillation. The model has been
evaluated over machine translated Stanford NLI test dataset, machine translated
Multi-Genre NLI test dataset, and manually translated RTE3-ITA test dataset. We
also test the proposed architecture over different tasks to empirically
demonstrate the generality of the NLI task. The model has been evaluated over
the native Italian ABSITA dataset, on the tasks of Sentiment Analysis,
Aspect-Based Sentiment Analysis, and Topic Recognition. We emphasise the
generality and exploitability of the Knowledge Distillation technique that
outperforms other methodologies based on machine translation, even though the
former was not directly trained on the data it was tested over.
- Abstract(参考訳): 本稿では,言語固有の学習データセットを使わずに,目的言語における文のペア間の推論関係(NLI)問題に対処するためのNLP手法を提案する。
我々は,同じ事前学習モデルの2つのインスタンスと共に,手作業で翻訳された汎用翻訳データセットを利用する。1つは,ソース言語に文を埋め込む文を生成し,もう1つはターゲット言語を微調整して,最初のものを模倣する。
この技法は知識蒸留として知られている。
このモデルは、機械翻訳Stanford NLIテストデータセット、機械翻訳Multi-Genre NLIテストデータセット、手動翻訳RTE3-ITAテストデータセットで評価されている。
また,nliタスクの汎用性を実証するために,異なるタスクで提案するアーキテクチャをテストした。
このモデルは、知覚分析、アスペクトベース知覚分析、およびトピック認識のタスクに基づいて、ネイティブイタリアのABSITAデータセット上で評価されている。
我々は、機械翻訳に基づく他の手法よりも優れた知識蒸留技術の汎用性と利用性を強調した。
関連論文リスト
- A Novel Cartography-Based Curriculum Learning Method Applied on RoNLI: The First Romanian Natural Language Inference Corpus [71.77214818319054]
自然言語推論は自然言語理解のプロキシである。
ルーマニア語のNLIコーパスは公開されていない。
58Kの訓練文対からなるルーマニア初のNLIコーパス(RoNLI)を紹介する。
論文 参考訳(メタデータ) (2024-05-20T08:41:15Z) - Cross-lingual Transfer or Machine Translation? On Data Augmentation for
Monolingual Semantic Textual Similarity [2.422759879602353]
Wikipediaデータの言語間転送では、モノリンガルSTSのパフォーマンスが改善されている。
学習データとしてNLIに着目した先行研究とは対照的に,これらの言語ではWikipediaドメインがNLIドメインよりも優れている。
論文 参考訳(メタデータ) (2024-03-08T12:28:15Z) - Improving Natural Language Inference in Arabic using Transformer Models
and Linguistically Informed Pre-Training [0.34998703934432673]
本稿では,自然言語処理分野におけるアラビア語テキストデータの分類について述べる。
この制限を克服するため、公開リソースから専用のデータセットを作成します。
言語固有モデル (AraBERT) が最先端の多言語アプローチと競合することがわかった。
論文 参考訳(メタデータ) (2023-07-27T07:40:11Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Multi-Scales Data Augmentation Approach In Natural Language Inference
For Artifacts Mitigation And Pre-Trained Model Optimization [0.0]
クラウドソーシングされたStanford Natural Language Inference corpus内でデータセットのアーティファクトを分析し、配置するための様々な技術を提供する。
データセットアーティファクトを緩和するために、2つの異なるフレームワークで独自のマルチスケールデータ拡張技術を採用している。
本手法は, 摂動試験に対するモデルの抵抗性を向上し, トレーニング済みベースラインの連続的な性能向上を可能にする。
論文 参考訳(メタデータ) (2022-12-16T23:37:44Z) - A Unified Neural Network Model for Readability Assessment with Feature
Projection and Length-Balanced Loss [17.213602354715956]
本稿では,可読性評価のための特徴投影と長さバランス損失を考慮したBERTモデルを提案する。
本モデルは,2つの英語ベンチマークデータセットと1つの中国語教科書データセットを用いて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-19T05:33:27Z) - Sentiment Analysis on Brazilian Portuguese User Reviews [0.0]
本研究は,システム結果の極性を仮定して,文書埋め込み戦略の予測性能を解析する。
この分析には、単一のデータセットに統合されたブラジルの5つの感情分析データセットと、トレーニング、テスト、バリデーションセットの参照パーティショニングが含まれている。
論文 参考訳(メタデータ) (2021-12-10T11:18:26Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Improving Cross-Lingual Reading Comprehension with Self-Training [62.73937175625953]
現在の最新モデルは、いくつかのベンチマークで人間のパフォーマンスを上回っています。
前作では、ゼロショットのクロスリンガル読解のための事前訓練された多言語モデルの能力を明らかにしている。
本稿では,ラベルのないデータを利用して性能を向上する。
論文 参考訳(メタデータ) (2021-05-08T08:04:30Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。