論文の概要: CS-NET at SemEval-2020 Task 4: Siamese BERT for ComVE
- arxiv url: http://arxiv.org/abs/2007.10830v1
- Date: Tue, 21 Jul 2020 14:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:04:03.122334
- Title: CS-NET at SemEval-2020 Task 4: Siamese BERT for ComVE
- Title(参考訳): CS-NET - SemEval-2020 Task 4: Siamese BERT for ComVE
- Authors: Soumya Ranjan Dash, Sandeep Routray, Prateek Varshney, Ashutosh Modi
- Abstract要約: 本論文では,共通認識を裏付ける文と,そうでない文とを区別するシステムについて述べる。
我々はトランスフォーマーの並列インスタンスを使用し、それによってパフォーマンスが向上します。
その結果, サブタスクAでは94.8%, サブタスクBでは89%の精度が得られた。
- 参考スコア(独自算出の注目度): 2.0491741153610334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we describe our system for Task 4 of SemEval 2020, which
involves differentiating between natural language statements that confirm to
common sense and those that do not. The organizers propose three subtasks -
first, selecting between two sentences, the one which is against common sense.
Second, identifying the most crucial reason why a statement does not make
sense. Third, generating novel reasons for explaining the against common sense
statement. Out of the three subtasks, this paper reports the system description
of subtask A and subtask B. This paper proposes a model based on transformer
neural network architecture for addressing the subtasks. The novelty in work
lies in the architecture design, which handles the logical implication of
contradicting statements and simultaneous information extraction from both
sentences. We use a parallel instance of transformers, which is responsible for
a boost in the performance. We achieved an accuracy of 94.8% in subtask A and
89% in subtask B on the test set.
- Abstract(参考訳): 本稿では,本研究では,共通認識を裏付ける自然言語文とそうでない文の区別を含む,semeval 2020のタスク4のシステムについて述べる。
主催者は3つのサブタスクを最初に提案し、2つの文の中から選択する。
第二に、ステートメントが意味をなさない最も重要な理由を特定する。
第三に、常識に反する言明を説明する新しい理由を生み出す。
本稿では,3つのサブタスクのうち,サブタスクAとサブタスクBのシステム記述を報告し,サブタスクに対処するためのトランスフォーマーニューラルネットワークアーキテクチャに基づくモデルを提案する。
仕事のノベルティはアーキテクチャ設計にあり、矛盾する文の論理的含意と、両方の文からの同時情報抽出を扱う。
我々はトランスフォーマーの並列インスタンスを使用し、それによってパフォーマンスが向上します。
その結果, サブタスクAでは94.8%, サブタスクBでは89%の精度が得られた。
関連論文リスト
- SemEval-2024 Task 8: Multidomain, Multimodel and Multilingual Machine-Generated Text Detection [68.858931667807]
Subtask Aは、テキストが人間によって書かれたか、機械によって生成されたかを決定するバイナリ分類タスクである。
サブタスクBは、テキストの正確なソースを検出し、それが人間によって書かれたか、特定のLCMによって生成されたかを認識する。
Subtask Cは、著者が人間から機械へ遷移するテキスト内の変化点を特定することを目的としている。
論文 参考訳(メタデータ) (2024-04-22T13:56:07Z) - Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - SemEval-2021 Task 4: Reading Comprehension of Abstract Meaning [47.49596196559958]
本稿では,SemEval-2021共有タスクについて紹介する。4: Reading of Abstract Meaning (ReCAM)。
パスとそれに対応する質問が与えられた場合、参加者システムは、抽象概念の5つの候補から正しい回答を選択することが期待される。
Subtask 1は、物理的な世界で直接認識できない概念を、システムがいかにうまくモデル化できるかを評価することを目的としている。
Subtask 2は、ハイパーニム階層にある非特異な概念を解釈するモデルの能力に焦点を当てている。
Subtask 3は、2種類の抽象性に対するモデルの一般化可能性に関する洞察を提供することを目的としている。
論文 参考訳(メタデータ) (2021-05-31T11:04:17Z) - ISCAS at SemEval-2020 Task 5: Pre-trained Transformers for
Counterfactual Statement Modeling [48.3669727720486]
ISCASはSemEval 2020 Task 5の2つのサブタスクに参加した。
本稿では,事前学習したトランスをベースとしたシステムについて述べる。
論文 参考訳(メタデータ) (2020-09-17T09:28:07Z) - QiaoNing at SemEval-2020 Task 4: Commonsense Validation and Explanation
system based on ensemble of language model [2.728575246952532]
本稿では,SemEval-2020 Task 4コンペティションに提出された言語モデルシステムについて述べる。
我々は、事前訓練された言語モデル(BERT、XLNet、RoBERTa、ALBERT)を用いて転送学習を行い、このタスクでそれらを微調整した。
アンサンブルされたモデルはこの問題をよりよく解決し、モデルの精度はサブタスクAで95.9%に達した。
論文 参考訳(メタデータ) (2020-09-06T05:12:50Z) - OCEAN: Online Task Inference for Compositional Tasks with Context
Adaptation [150.1979017130774]
構成タスクに対するオンラインタスク推論を行うための変分推論フレームワークを提案する。
本フレームワークは,タスク構造に関する事前の知識に基づいて,柔軟な潜伏分布をサポートし,教師なしで訓練することができる。
論文 参考訳(メタデータ) (2020-08-17T04:50:34Z) - LMVE at SemEval-2020 Task 4: Commonsense Validation and Explanation
using Pretraining Language Model [5.428461405329692]
本稿では,SemEval-2020 Task 4のサブタスクa,bへの提出について述べる。
サブタスク a では、ALBERT ベースのモデルを用いて2つの文候補から共通感覚文を抽出する。
サブタスクbでは、ヒント文機構によって強化された多重選択モデルを用いて、文が常識に反する理由を与えられた選択肢から選択する。
論文 参考訳(メタデータ) (2020-07-06T05:51:10Z) - SemEval-2020 Task 4: Commonsense Validation and Explanation [24.389998904122244]
SemEval-2020 Task 4, Commonsense Validation and Explanation (ComVE)には3つのサブタスクが含まれている。
我々は,人間にとって理にかなう自然言語文と,そうでないものとを区別できるかどうかを評価することを目的とする。
Subtask A と Subtask B では、上位のシステムのパフォーマンスは人間に近い。
論文 参考訳(メタデータ) (2020-07-01T04:41:05Z) - CUHK at SemEval-2020 Task 4: CommonSense Explanation, Reasoning and
Prediction with Multi-task Learning [22.534520584497503]
本稿では,SemEval 2020: Commonsense Validation and Explanation (ComVE)のタスク4に提案したシステムについて述べる。
タスクは、与えられた文が意味があるかどうかを直接検証し、それを説明するためにモデルを必要とする。
マルチタスク設定によるBERTarchitectureに基づいて,ERP(Explain, Reason and Predict)システムを提案する。
論文 参考訳(メタデータ) (2020-06-12T13:51:12Z) - Context-based Transformer Models for Answer Sentence Selection [109.96739477808134]
本稿では,文選択作業における文脈情報の役割を分析する。
本稿では,ローカルとグローバルの2種類のコンテキストを活用するTransformerベースのアーキテクチャを提案する。
その結果,トランスフォーマーモデルにおける局所コンテキストとグローバルコンテキストの組み合わせは,解答文選択の精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-06-01T21:52:19Z) - CS-NLP team at SemEval-2020 Task 4: Evaluation of State-of-the-art NLP
Deep Learning Architectures on Commonsense Reasoning Task [3.058685580689605]
本稿では,SemEval-2020 Task 4 competition: Commonsense Validation and Explanation (ComVE) Challengeについて述べる。
本システムは、3つの異なる自然言語推論サブタスクに対して手動でキュレートされたラベル付きテキストデータセットを使用する。
第2のサブタスクでは、声明が意味をなさない理由を選択するため、27人の参加者のうち、最初の6チーム(93.7%)で非常に競争力のある結果が得られます。
論文 参考訳(メタデータ) (2020-05-17T13:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。