論文の概要: ISCAS at SemEval-2020 Task 5: Pre-trained Transformers for
Counterfactual Statement Modeling
- arxiv url: http://arxiv.org/abs/2009.08171v1
- Date: Thu, 17 Sep 2020 09:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 09:10:08.269048
- Title: ISCAS at SemEval-2020 Task 5: Pre-trained Transformers for
Counterfactual Statement Modeling
- Title(参考訳): SemEval-2020 Task 5におけるISCAS:非現実的ステートメントモデリングのための事前学習型トランスフォーマ
- Authors: Yaojie Lu and Annan Li and Hongyu Lin and Xianpei Han and Le Sun
- Abstract要約: ISCASはSemEval 2020 Task 5の2つのサブタスクに参加した。
本稿では,事前学習したトランスをベースとしたシステムについて述べる。
- 参考スコア(独自算出の注目度): 48.3669727720486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ISCAS participated in two subtasks of SemEval 2020 Task 5: detecting
counterfactual statements and detecting antecedent and consequence. This paper
describes our system which is based on pre-trained transformers. For the first
subtask, we train several transformer-based classifiers for detecting
counterfactual statements. For the second subtask, we formulate antecedent and
consequence extraction as a query-based question answering problem. The two
subsystems both achieved third place in the evaluation. Our system is openly
released at https://github.com/casnlu/ISCAS-SemEval2020Task5.
- Abstract(参考訳): ISCASはSemEval 2020 Task 5の2つのサブタスクに参加した。
本稿では, 予め学習した変圧器をベースとするシステムについて述べる。
最初のサブタスクでは、偽造文を検出するための変換器ベースの分類器を訓練する。
第2のサブタスクでは,クエリに基づく質問応答問題として先行抽出と結果抽出を定式化する。
2つのサブシステムが評価で3位となった。
我々のシステムはhttps://github.com/casnlu/ISCAS-SemEval 2020Task5で公開されています。
関連論文リスト
- Context-Aware Transformer Pre-Training for Answer Sentence Selection [102.7383811376319]
本稿では,文脈AS2のダウンストリーム微調整タスクを模倣する3つの事前学習目標を提案する。
実験の結果,事前学習手法により,いくつかのデータセットにおいて,ベースライン文脈AS2精度を最大8%向上できることがわかった。
論文 参考訳(メタデータ) (2023-05-24T17:10:45Z) - Pre-training Transformer Models with Sentence-Level Objectives for
Answer Sentence Selection [99.59693674455582]
本稿では,文書内および文書間における段落レベルの意味論を取り入れた3つの新しい文レベルトランスフォーマー事前学習目標を提案する。
3つのパブリックなAS2データセットと1つの産業用AS2データセットに関する実験は、ベースラインモデルよりも事前訓練されたトランスフォーマーの実証的な優位性を実証している。
論文 参考訳(メタデータ) (2022-05-20T22:39:00Z) - Paragraph-based Transformer Pre-training for Multi-Sentence Inference [99.59693674455582]
マルチ候補推論タスクの微調整に使用する場合,一般的な事前学習型トランスフォーマーは性能が良くないことを示す。
次に、複数の入力文にまたがる段落レベルの意味をモデル化する新しい事前学習目標を提案する。
論文 参考訳(メタデータ) (2022-05-02T21:41:14Z) - Answer Generation for Retrieval-based Question Answering Systems [80.28727681633096]
シーケンス・トゥ・シークエンス・トランスモデルを訓練し、候補集合から解を生成する。
英語のAS2データセットを3つ比較したところ, 精度は32点まで向上した。
論文 参考訳(メタデータ) (2021-06-02T05:45:49Z) - BUT-FIT at SemEval-2020 Task 5: Automatic detection of counterfactual
statements with deep pre-trained language representation models [6.853018135783218]
本稿では,BUT-FITによるSemEval-2020 Task 5: Modelling Causal Reasoning in Language: Detecting Counterfactualsについて述べる。
課題は、ある文が偽物を含むかどうかを検出することである。
どちらのサブタスクでも,RoBERTa LRMが最善を尽くすことがわかった。
論文 参考訳(メタデータ) (2020-07-28T11:16:11Z) - CS-NET at SemEval-2020 Task 4: Siamese BERT for ComVE [2.0491741153610334]
本論文では,共通認識を裏付ける文と,そうでない文とを区別するシステムについて述べる。
我々はトランスフォーマーの並列インスタンスを使用し、それによってパフォーマンスが向上します。
その結果, サブタスクAでは94.8%, サブタスクBでは89%の精度が得られた。
論文 参考訳(メタデータ) (2020-07-21T14:08:02Z) - LMVE at SemEval-2020 Task 4: Commonsense Validation and Explanation
using Pretraining Language Model [5.428461405329692]
本稿では,SemEval-2020 Task 4のサブタスクa,bへの提出について述べる。
サブタスク a では、ALBERT ベースのモデルを用いて2つの文候補から共通感覚文を抽出する。
サブタスクbでは、ヒント文機構によって強化された多重選択モデルを用いて、文が常識に反する理由を与えられた選択肢から選択する。
論文 参考訳(メタデータ) (2020-07-06T05:51:10Z) - Yseop at SemEval-2020 Task 5: Cascaded BERT Language Model for
Counterfactual Statement Analysis [0.0]
我々は、分類タスクにBERTベースモデルを使用し、シーケンス識別タスクを処理するために、ハイブリッドBERTマルチ層パーセプトロンシステムを構築した。
本実験により, 構文的・意味的特徴の導入は, 分類タスクにおけるシステム改善にはほとんど寄与しないが, それらの特徴を線形入力として用いて, モデルのシーケンス決定能力を微調整することにより, 2次タスクにおいてBiLSTM-CRFのような他の類似の複雑なシステムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-18T08:19:18Z) - The Cascade Transformer: an Application for Efficient Answer Sentence
Selection [116.09532365093659]
本稿では,変圧器をベースとしたモデルのカスケード化手法であるカスケード変換器について紹介する。
現状の変圧器モデルと比較すると,提案手法は精度にほとんど影響を与えずに計算量を37%削減する。
論文 参考訳(メタデータ) (2020-05-05T23:32:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。