論文の概要: CheckThat! at CLEF 2020: Enabling the Automatic Identification and
Verification of Claims in Social Media
- arxiv url: http://arxiv.org/abs/2001.08546v1
- Date: Tue, 21 Jan 2020 06:47:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 23:17:53.609182
- Title: CheckThat! at CLEF 2020: Enabling the Automatic Identification and
Verification of Claims in Social Media
- Title(参考訳): ソーシャルメディアにおけるクレームの自動識別と検証を可能にするclef 2020
- Authors: Alberto Barron-Cedeno, Tamer Elsayed, Preslav Nakov, Giovanni Da San
Martino, Maram Hasanain, Reem Suwaileh, and Fatima Haouari
- Abstract要約: CheckThat!は4つの補完的なタスクと、以前のラボエディションからの関連するタスクを提案する。
評価は、ランキングタスクの平均平均精度またはランクkの精度、分類タスクのF1を用いて行われる。
- 参考スコア(独自算出の注目度): 28.070608555714752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe the third edition of the CheckThat! Lab, which is part of the
2020 Cross-Language Evaluation Forum (CLEF). CheckThat! proposes four
complementary tasks and a related task from previous lab editions, offered in
English, Arabic, and Spanish. Task 1 asks to predict which tweets in a Twitter
stream are worth fact-checking. Task 2 asks to determine whether a claim posted
in a tweet can be verified using a set of previously fact-checked claims. Task
3 asks to retrieve text snippets from a given set of Web pages that would be
useful for verifying a target tweet's claim. Task 4 asks to predict the
veracity of a target tweet's claim using a set of Web pages and potentially
useful snippets in them. Finally, the lab offers a fifth task that asks to
predict the check-worthiness of the claims made in English political debates
and speeches. CheckThat! features a full evaluation framework. The evaluation
is carried out using mean average precision or precision at rank k for ranking
tasks, and F1 for classification tasks.
- Abstract(参考訳): CheckThatの第3版について説明する。
2020年、CLEF(Cross-Language Evaluation Forum)に参加。
checkthat!は、英語、アラビア語、スペイン語で提供される以前のラボ版から4つの補完的なタスクと関連するタスクを提案する。
タスク1は、twitterストリーム内のどのツイートがファクトチェックに値するかを予測する。
タスク2は、ツイートに投稿されたクレームが事実チェックされたクレームのセットを使って検証できるかどうかを判断する。
タスク3は、ターゲットのツイートのクレームを検証するのに役立つWebページのセットからテキストスニペットを取得するように要求する。
タスク4は、一連のWebページと潜在的に有用なスニペットを使用して、ターゲットのツイートのクレームの正確性を予測する。
最後に、ラボは5番目のタスクを提供し、イングランドの政治討論や演説で行われた主張の正当性を予測する。
完全な評価フレームワークを備えている。
評価は、ランキングタスクの平均平均精度またはランクkの精度、分類タスクのF1を用いて行われる。
関連論文リスト
- Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - DialFact: A Benchmark for Fact-Checking in Dialogue [56.63709206232572]
われわれはDialFactという22,245の注釈付き会話クレームのベンチマークデータセットを構築し、ウィキペディアの証拠と組み合わせた。
FEVERのような非対話データでトレーニングされた既存のファクトチェックモデルは、我々のタスクでうまく機能しないことがわかった。
本稿では,対話におけるファクトチェック性能を効果的に向上する,シンプルなデータ効率のソリューションを提案する。
論文 参考訳(メタデータ) (2021-10-15T17:34:35Z) - Overview of the CLEF-2019 CheckThat!: Automatic Identification and
Verification of Claims [26.96108180116284]
CheckThat!ラボでは、英語とアラビア語の2つの異なる言語で2つのタスクをこなした。
Task 1の最も成功したアプローチは、さまざまなニューラルネットワークとロジスティック回帰を使用した。
ラーニング・トゥ・ランクは、サブタスクAの最高スコアランで使用された。
論文 参考訳(メタデータ) (2021-09-25T16:08:09Z) - Zero-Shot Information Extraction as a Unified Text-to-Triple Translation [56.01830747416606]
我々は、テキストから3つの翻訳フレームワークに一連の情報抽出タスクを投入した。
タスク固有の入力テキストと出力トリプルの変換としてタスクを形式化する。
本稿では,オープン情報抽出におけるゼロショット性能について検討する。
論文 参考訳(メタデータ) (2021-09-23T06:54:19Z) - Overview of the CLEF--2021 CheckThat! Lab on Detecting Check-Worthy
Claims, Previously Fact-Checked Claims, and Fake News [21.574997165145486]
第4回CheckThat! Lab, 2021 Conference and the Labs of the Evaluation Forum (CLEF)について述べる。
同研究所は、事実性に関連する技術支援タスクを評価し、アラビア語、ブルガリア語、英語、スペイン語、トルコ語をカバーしている。
論文 参考訳(メタデータ) (2021-09-23T06:10:36Z) - Accenture at CheckThat! 2020: If you say so: Post-hoc fact-checking of
claims using transformer-based models [0.0]
CLEF 2020 CheckThat! Lab, Task 1 on English and Arabic。
この共有タスクは、ソーシャルメディアテキストのクレームがプロとして事実チェックされるべきかどうかを評価する。
我々はBERTとRoBERTaモデルを用いて、プロのファクトチェッカーがレビューすべきソーシャルメディアテキストのクレームを特定した。
論文 参考訳(メタデータ) (2020-09-05T01:44:11Z) - Overview of CheckThat! 2020: Automatic Identification and Verification
of Claims in Social Media [26.60148306714383]
CLEF 2020にて,CheckThat! Labの第3版の概要を紹介する。
この研究室は英語とアラビア語の2つの異なる言語で5つのタスクをこなした。
本稿では,課題設定,評価結果,参加者が使用するアプローチの概要について述べる。
論文 参考訳(メタデータ) (2020-07-15T21:19:32Z) - Stance Prediction and Claim Verification: An Arabic Perspective [0.0]
本研究は,アラビア語の新しいコーパスを用いたニュースクレームの検証と姿勢予測におけるテキスト・エンテーメントの適用について検討する。
公式のコーパスには2つの視点がある:4,547の真偽のクレームと3,786のペア(立証、証拠)からなるバージョン。
論文 参考訳(メタデータ) (2020-05-21T01:17:46Z) - Adversarial Transfer Learning for Punctuation Restoration [58.2201356693101]
句読点予測のためのタスク不変知識を学習するために,逆多タスク学習を導入する。
IWSLT2011データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-04-01T06:19:56Z) - Claim Check-Worthiness Detection as Positive Unlabelled Learning [53.24606510691877]
クレームチェックの信頼性検出はファクトチェックシステムにおいて重要な要素である。
これらの課題の根底にあるクレームチェックの信頼性検出における中心的な課題を照明する。
我々の最良の手法は、正の非競合学習の変種を用いて、これを自動的に修正する統一的なアプローチである。
論文 参考訳(メタデータ) (2020-03-05T16:06:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。