論文の概要: Tha3aroon at NSURL-2019 Task 8: Semantic Question Similarity in Arabic
- arxiv url: http://arxiv.org/abs/1912.12514v1
- Date: Sat, 28 Dec 2019 20:11:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 12:34:24.563053
- Title: Tha3aroon at NSURL-2019 Task 8: Semantic Question Similarity in Arabic
- Title(参考訳): Tha3aroon at NSURL-2019 Task 8: Semantic Question similarity in Arabic
- Authors: Ali Fadel, Ibraheem Tuffaha, Mahmoud Al-Ayyoub
- Abstract要約: NSURL 2019のセマンティックテキスト質問類似性タスクに対するチームの取り組みについて述べる。
我々のトップパフォーマンスシステムは、トレーニングデータを拡大するために、いくつかの革新的なデータ拡張技術を利用している。
データの事前学習されたコンテキスト埋め込みをELMoが受け取り、自己注意型のON-LSTMネットワークにフィードする。
- 参考スコア(独自算出の注目度): 5.214494546503266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we describe our team's effort on the semantic text question
similarity task of NSURL 2019. Our top performing system utilizes several
innovative data augmentation techniques to enlarge the training data. Then, it
takes ELMo pre-trained contextual embeddings of the data and feeds them into an
ON-LSTM network with self-attention. This results in sequence representation
vectors that are used to predict the relation between the question pairs. The
model is ranked in the 1st place with 96.499 F1-score (same as the second place
F1-score) and the 2nd place with 94.848 F1-score (differs by 1.076 F1-score
from the first place) on the public and private leaderboards, respectively.
- Abstract(参考訳): 本稿では,NSURL 2019における意味的テキスト質問類似性タスクに対するチームの取り組みについて述べる。
我々のトップパフォーマンスシステムは、トレーニングデータを拡大するために、いくつかの革新的なデータ拡張技術を利用している。
次に、ELMoの事前学習したコンテキスト埋め込みを、自己注意型のON-LSTMネットワークに入力する。
この結果、問題ペア間の関係を予測するために使われるシーケンス表現ベクトルが得られる。
1位は96.499F1スコア(F1スコアの2位)、2位は94.848F1スコア(F1スコアの1.076F1スコアの差)である。
関連論文リスト
- Coreference Resolution through a seq2seq Transition-Based System [10.187353923159613]
本稿では,テキスト・テキスト・パラダイムを用いて参照とリンクを共同で予測するコア参照解決システムを提案する。
83.3F1スコアのCoNLL-2012データセットに対して、最先端の精度を得る。
従来のアプローチに比べて、4言語中3言語でゼロショットのF1スコアが大幅に高くなる。
論文 参考訳(メタデータ) (2022-11-22T10:17:50Z) - Alibaba-Translate China's Submission for WMT 2022 Quality Estimation
Shared Task [80.22825549235556]
我々は、UniTEという品質評価共有タスクにおいて、文レベルのMQMベンチマークを提出する。
具体的には、トレーニング中に3種類の入力形式と事前学習された言語モデルを組み合わせたUniTEのフレームワークを用いる。
その結果,我々のモデルは多言語・英語・ロシア語設定では第1位,英語・ドイツ語・中国語設定では第2位に達した。
論文 参考訳(メタデータ) (2022-10-18T08:55:27Z) - Alibaba-Translate China's Submission for WMT 2022 Metrics Shared Task [61.34108034582074]
私たちはUNITE(Unified Translation Evaluation)のコアアイデアに基づいてシステムを構築します。
モデル事前学習の段階では、まず擬似ラベル付きデータ例をUNITEの継続事前訓練に適用する。
微調整の段階では、過去のWMTコンペティションの直接評価(DA)と多次元品質メトリクス(MQM)のデータの両方を使用します。
論文 参考訳(メタデータ) (2022-10-18T08:51:25Z) - Detecting Handwritten Mathematical Terms with Sensor Based Data [71.84852429039881]
本稿では,手書きの数学的用語を自動分類する,スタビロによるUbiComp 2021チャレンジの解を提案する。
入力データセットには異なるライターのデータが含まれており、ラベル文字列は合計15の異なる文字から構成されている。
論文 参考訳(メタデータ) (2021-09-12T19:33:34Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - NLP-CIC @ PRELEARN: Mastering prerequisites relations, from handcrafted
features to embeddings [68.97335984455059]
我々は,EVALITA 2020において,前提条件付き関係学習タスク(PRELEARN)のシステムと成果を報告した。
このタスクは、概念のペアが前提条件を持つかどうかを分類することを目的としている。
F1スコアが0.887点、0.690点の2つのシナリオでそれぞれ1位にランクインした。
論文 参考訳(メタデータ) (2020-11-07T12:13:09Z) - Phonemer at WNUT-2020 Task 2: Sequence Classification Using COVID
Twitter BERT and Bagging Ensemble Technique based on Plurality Voting [0.0]
新型コロナウイルス(COVID-19)に関連する英語のつぶやきを自動的に識別するシステムを開発した。
最終アプローチでは0.9037のF1スコアを達成し,F1スコアを評価基準として総合6位にランク付けした。
論文 参考訳(メタデータ) (2020-10-01T10:54:54Z) - Relation Detection for Indonesian Language using Deep Neural Network --
Support Vector Machine [0.0]
インドネシア語の2つの名前のエンティティ間の関係検出にニューラルネットワークを用いる。
単語埋め込み、位置埋め込み、POSタグ埋め込み、文字埋め込みといった機能を使用しました。
最大の成果はF1-Scoreの0.8083で、Convolutional Layerをフロントパート、SVMをバックパートとして使用しています。
論文 参考訳(メタデータ) (2020-09-12T01:45:08Z) - Enhanced Universal Dependency Parsing with Second-Order Inference and
Mixture of Training Data [48.8386313914471]
本稿では,テキストIWPT 2020共有タスクに使用するシステムについて述べる。
低リソースのタミルコーパスでは、タミルの訓練データを他の言語と特別に混合し、タミルの性能を大幅に改善する。
論文 参考訳(メタデータ) (2020-06-02T06:42:22Z) - The Inception Team at NSURL-2019 Task 8: Semantic Question Similarity in
Arabic [0.76146285961466]
本稿では,アラビア語における意味的質問類似性の課題について述べる。
目的は、提供されたデータセットに対して、アラビア語で同様の意味論を検出できるモデルを構築することである。
論文 参考訳(メタデータ) (2020-04-24T19:52:40Z) - UKARA 1.0 Challenge Track 1: Automatic Short-Answer Scoring in Bahasa
Indonesia [0.0]
自動エッセイ評価におけるUKARA 1.0チャレンジの3位となるソリューションについて述べる。
このタスクは、2つのデータセットのバイナリ分類問題と、2つの異なる質問からの回答から構成される。
最終的に、2つのデータセットに2つの異なるモデルを使用しました。
論文 参考訳(メタデータ) (2020-02-28T04:32:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。