論文の概要: BUT-FIT at SemEval-2020 Task 5: Automatic detection of counterfactual
statements with deep pre-trained language representation models
- arxiv url: http://arxiv.org/abs/2007.14128v1
- Date: Tue, 28 Jul 2020 11:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 01:26:30.988123
- Title: BUT-FIT at SemEval-2020 Task 5: Automatic detection of counterfactual
statements with deep pre-trained language representation models
- Title(参考訳): semeval-2020タスク5: deep pre-trained language representation modelを用いた反事実文の自動検出
- Authors: Martin Fajcik, Josef Jon, Martin Docekal, Pavel Smrz
- Abstract要約: 本稿では,BUT-FITによるSemEval-2020 Task 5: Modelling Causal Reasoning in Language: Detecting Counterfactualsについて述べる。
課題は、ある文が偽物を含むかどうかを検出することである。
どちらのサブタスクでも,RoBERTa LRMが最善を尽くすことがわかった。
- 参考スコア(独自算出の注目度): 6.853018135783218
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper describes BUT-FIT's submission at SemEval-2020 Task 5: Modelling
Causal Reasoning in Language: Detecting Counterfactuals. The challenge focused
on detecting whether a given statement contains a counterfactual (Subtask 1)
and extracting both antecedent and consequent parts of the counterfactual from
the text (Subtask 2). We experimented with various state-of-the-art language
representation models (LRMs). We found RoBERTa LRM to perform the best in both
subtasks. We achieved the first place in both exact match and F1 for Subtask 2
and ranked second for Subtask 1.
- Abstract(参考訳): 本稿では,BUT-FITによるSemEval-2020 Task 5: Modelling Causal Reasoning in Language: Detecting Counterfactualsについて述べる。
この課題は、ある文が反事実(Subtask1)を含むか否かを検知し、そのテキスト(Subtask2)から反事実の先行部分と後続部分の両方を抽出することに焦点を当てている。
我々は様々な最先端言語表現モデル(LRM)を実験した。
両サブタスクにおいて,RoBERTa LRMが最善を尽くすことがわかった。
完全一致とf1でsubtask 2で1位を獲得し、subtask 1で2位にランクインしました。
関連論文リスト
- SemEval-2024 Task 8: Multidomain, Multimodel and Multilingual Machine-Generated Text Detection [68.858931667807]
Subtask Aは、テキストが人間によって書かれたか、機械によって生成されたかを決定するバイナリ分類タスクである。
サブタスクBは、テキストの正確なソースを検出し、それが人間によって書かれたか、特定のLCMによって生成されたかを認識する。
Subtask Cは、著者が人間から機械へ遷移するテキスト内の変化点を特定することを目的としている。
論文 参考訳(メタデータ) (2024-04-22T13:56:07Z) - Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - Event Causality Identification with Causal News Corpus -- Shared Task 3,
CASE 2022 [3.0775142635531685]
事象因果同定 2022 症例の共有タスクには2つのサブタスクが含まれていた。
サブタスク1は、ある文が因果関係を含むか否かを予測するために参加者に要求する。
サブタスク2では、参加者は因果文ごとに原因、効果、信号のスパンを特定する必要があった。
論文 参考訳(メタデータ) (2022-11-22T10:34:09Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - Towards End-to-End Open Conversational Machine Reading [57.18251784418258]
オープン検索型会話機械読解(OR-CMR)タスクでは,機械は対話履歴とテキスト知識ベースに応答するマルチターン質問を行う必要がある。
OR-CMRを完全エンドツーエンドで統一されたテキスト・ツー・テキスト・タスクとしてモデル化し、ShARCおよびOR-ShARCデータセットを用いた実験により、提案したエンドツーエンド・フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-10-13T15:50:44Z) - Zero-Shot Information Extraction as a Unified Text-to-Triple Translation [56.01830747416606]
我々は、テキストから3つの翻訳フレームワークに一連の情報抽出タスクを投入した。
タスク固有の入力テキストと出力トリプルの変換としてタスクを形式化する。
本稿では,オープン情報抽出におけるゼロショット性能について検討する。
論文 参考訳(メタデータ) (2021-09-23T06:54:19Z) - ISCAS at SemEval-2020 Task 5: Pre-trained Transformers for
Counterfactual Statement Modeling [48.3669727720486]
ISCASはSemEval 2020 Task 5の2つのサブタスクに参加した。
本稿では,事前学習したトランスをベースとしたシステムについて述べる。
論文 参考訳(メタデータ) (2020-09-17T09:28:07Z) - UPB at SemEval-2020 Task 6: Pretrained Language Models for Definition
Extraction [0.17188280334580194]
本研究はSemEval-2020: Extracting Definitions from Free Text in Textbooksの6番目のタスクの文脈における我々の貢献を示す。
様々な事前訓練された言語モデルを用いて、競技の3つのサブタスクのそれぞれを解決する。
DeftEvalデータセットで評価したベストパフォーマンスモデルは、第1サブタスクの32位、第2サブタスクの37位を得る。
論文 参考訳(メタデータ) (2020-09-11T18:36:22Z) - SemEval-2020 Task 5: Counterfactual Recognition [36.38097292055921]
Subtask-1は、ある文が偽造文であるか否かを判定することを目的としている。
Subtask-2は、該当するシステムに対して、所定の偽造声明を抽出することを要求する。
論文 参考訳(メタデータ) (2020-08-02T20:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。