論文の概要: Event Causality Identification with Causal News Corpus -- Shared Task 3,
CASE 2022
- arxiv url: http://arxiv.org/abs/2211.12154v1
- Date: Tue, 22 Nov 2022 10:34:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 17:34:56.526291
- Title: Event Causality Identification with Causal News Corpus -- Shared Task 3,
CASE 2022
- Title(参考訳): 因果ニュースコーパスによる事象因果関係の同定 -- 共有タスク3, ケース2022
- Authors: Fiona Anting Tan, Hansi Hettiarachchi, Ali H\"urriyeto\u{g}lu, Tommaso
Caselli, Onur Uca, Farhana Ferdousi Liza, Nelleke Oostdijk
- Abstract要約: 事象因果同定 2022 症例の共有タスクには2つのサブタスクが含まれていた。
サブタスク1は、ある文が因果関係を含むか否かを予測するために参加者に要求する。
サブタスク2では、参加者は因果文ごとに原因、効果、信号のスパンを特定する必要があった。
- 参考スコア(独自算出の注目度): 3.0775142635531685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Event Causality Identification Shared Task of CASE 2022 involved two
subtasks working on the Causal News Corpus. Subtask 1 required participants to
predict if a sentence contains a causal relation or not. This is a supervised
binary classification task. Subtask 2 required participants to identify the
Cause, Effect and Signal spans per causal sentence. This could be seen as a
supervised sequence labeling task. For both subtasks, participants uploaded
their predictions for a held-out test set, and ranking was done based on binary
F1 and macro F1 scores for Subtask 1 and 2, respectively. This paper summarizes
the work of the 17 teams that submitted their results to our competition and 12
system description papers that were received. The best F1 scores achieved for
Subtask 1 and 2 were 86.19% and 54.15%, respectively. All the top-performing
approaches involved pre-trained language models fine-tuned to the targeted
task. We further discuss these approaches and analyze errors across
participants' systems in this paper.
- Abstract(参考訳): イベント因果性識別 ケース2022の共有タスクは、因果性ニュースコーパスに取り組んでいる2つのサブタスクを含む。
サブタスク1は、ある文が因果関係を含むか否かを予測するために参加者に要求する。
これは教師付きバイナリ分類タスクです。
サブタスク2では、参加者は因果文ごとに原因、効果、信号のスパンを特定する必要があった。
これは教師付きシーケンスラベリングタスクと見なすことができる。
両方のサブタスクに対して、参加者は保留テストセットの予測をアップロードし、それぞれSubtask 1と2のバイナリF1とマクロF1スコアに基づいてランク付けした。
本論文では,コンペに成果を提出した17チームと受講したシステム記述書12件について要約する。
1位と2位のF1得点はそれぞれ86.19%、54.15%だった。
トップパフォーマンスのアプローチには、ターゲットタスクに微調整された事前訓練された言語モデルが含まれていた。
本論文では,これらのアプローチを議論し,参加者のシステム間におけるエラーの分析を行う。
関連論文リスト
- BoschAI @ Causal News Corpus 2023: Robust Cause-Effect Span Extraction
using Multi-Layer Sequence Tagging and Data Augmentation [16.59785586761074]
因果ニュースコーパスによるイベント因果同定 共有タスクは、この課題の2つの側面に対処する。
Subtask 1 はテキスト中の因果関係を検出することを目的としており、Subtask 2 は原因や効果を示す信号語とスパンを識別する必要がある。
我々のシステムは、事前訓練されたトランスフォーマー、積み重ねシーケンスタグ、および合成データ拡張に基づいており、Subtask 1で3位となり、F1スコア72.8でSubtask 2に勝利する。
論文 参考訳(メタデータ) (2023-12-11T12:35:35Z) - Unifying Event Detection and Captioning as Sequence Generation via
Pre-Training [53.613265415703815]
本稿では,イベント検出とキャプションのタスク間関連性を高めるための,事前学習と微調整の統合フレームワークを提案する。
我々のモデルは最先端の手法よりも優れており、大規模ビデオテキストデータによる事前学習ではさらに向上できる。
論文 参考訳(メタデータ) (2022-07-18T14:18:13Z) - RuArg-2022: Argument Mining Evaluation [69.87149207721035]
本稿は、ロシア語テキストを扱う議論分析システムの最初のコンペティションの主催者の報告である。
新型コロナウイルスの感染拡大に伴う3つの話題について、9,550文(ソーシャルメディア投稿記事)のコーパスを用意した。
両タスクで第一位を獲得したシステムは、BERTアーキテクチャのNLI(Natural Language Inference)変種を使用した。
論文 参考訳(メタデータ) (2022-06-18T17:13:37Z) - IAM: A Comprehensive and Large-Scale Dataset for Integrated Argument
Mining Tasks [59.457948080207174]
本稿では,一連の議論マイニングタスクに適用可能なIAMという,包括的で大規模なデータセットを提案する。
データセットの70k近い文は、引数特性に基づいて完全に注釈付けされている。
議論準備プロセスに関連する2つの新しい統合された議論マイニングタスクを提案する。(1) 姿勢分類付きクレーム抽出(CESC)と(2) クレーム・エビデンス・ペア抽出(CEPE)である。
論文 参考訳(メタデータ) (2022-03-23T08:07:32Z) - Overview of the CLEF-2019 CheckThat!: Automatic Identification and
Verification of Claims [26.96108180116284]
CheckThat!ラボでは、英語とアラビア語の2つの異なる言語で2つのタスクをこなした。
Task 1の最も成功したアプローチは、さまざまなニューラルネットワークとロジスティック回帰を使用した。
ラーニング・トゥ・ランクは、サブタスクAの最高スコアランで使用された。
論文 参考訳(メタデータ) (2021-09-25T16:08:09Z) - Findings of the NLP4IF-2021 Shared Tasks on Fighting the COVID-19
Infodemic and Censorship Detection [23.280506220186425]
NLP4IF-2021共有タスクの結果を示す。
10チームがタスク1にシステムを提出し、1チームがタスク2に参加した。
最高のシステムは、事前訓練されたトランスフォーマーとアンサンブルを使用する。
論文 参考訳(メタデータ) (2021-09-23T06:38:03Z) - Learning Constraints and Descriptive Segmentation for Subevent Detection [74.48201657623218]
本稿では,サブイベント検出とEventSeg予測の依存関係をキャプチャする制約を学習し,強制するアプローチを提案する。
我々は制約学習にRectifier Networksを採用し、学習した制約をニューラルネットワークの損失関数の正規化項に変換する。
論文 参考訳(メタデータ) (2021-09-13T20:50:37Z) - ESTER: A Machine Reading Comprehension Dataset for Event Semantic
Relation Reasoning [49.795767003586235]
イベントセマンティックリレーション推論のための包括的な機械学習理解データセットESTERを紹介します。
もっともよく使われるイベント意味関係を5つ検討し、質問応答タスクとして定式化します。
実験の結果、現在のSOTAシステムは、イベントベースF1、トークンベースF1、HIT@1スコアそれぞれ60.5%、57.8%、76.3%を達成した。
論文 参考訳(メタデータ) (2021-04-16T19:59:26Z) - TEST_POSITIVE at W-NUT 2020 Shared Task-3: Joint Event Multi-task
Learning for Slot Filling in Noisy Text [26.270447944466557]
本稿では,Twitter から COVID-19 イベントを抽出する統合イベントマルチタスク学習 (JOELIN) モデルを提案する。
統一されたグローバルラーニングフレームワークを通じて、異なるイベントにわたるトレーニングデータを全て利用して、言語モデルを学習し、微調整する。
我々は,その予測をさらにフィルタリングするために,名前付きエンティティ認識(NER)を用いた型認識後処理手法を実装した。
論文 参考訳(メタデータ) (2020-09-29T19:08:45Z) - SemEval-2020 Task 10: Emphasis Selection for Written Text in Visual
Media [50.29389719723529]
本稿では,SemEval-2020 Task 10, Emphasis Selection for Written Text in Visual Media の主な成果とその結果を比較した。
この共有タスクの目的は、強調選択のための自動メソッドを設計することである。
タスクに送信されたシステムの解析は、BERTとRoBERTaが、トレーニング済みモデルの最も一般的な選択であることを示している。
論文 参考訳(メタデータ) (2020-08-07T17:24:53Z) - BUT-FIT at SemEval-2020 Task 5: Automatic detection of counterfactual
statements with deep pre-trained language representation models [6.853018135783218]
本稿では,BUT-FITによるSemEval-2020 Task 5: Modelling Causal Reasoning in Language: Detecting Counterfactualsについて述べる。
課題は、ある文が偽物を含むかどうかを検出することである。
どちらのサブタスクでも,RoBERTa LRMが最善を尽くすことがわかった。
論文 参考訳(メタデータ) (2020-07-28T11:16:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。