論文の概要: Team Alex at CLEF CheckThat! 2020: Identifying Check-Worthy Tweets With
Transformer Models
- arxiv url: http://arxiv.org/abs/2009.02931v1
- Date: Mon, 7 Sep 2020 08:03:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:29:54.757730
- Title: Team Alex at CLEF CheckThat! 2020: Identifying Check-Worthy Tweets With
Transformer Models
- Title(参考訳): チーム・アレックス - CLEF CheckThat!
2020年: トランスフォーマーモデルでチェックワードのつぶやきを特定
- Authors: Alex Nikolov, Giovanni Da San Martino, Ivan Koychev, and Preslav Nakov
- Abstract要約: 本稿では、深い文脈のテキスト表現と、そのツイートの社会的文脈をモデル化した、新型コロナウイルスに関するチェックアワーなツイートを検出するモデルを提案する。
CLEF-2020 CheckThat! Task 1 System Team_AlexはMAPスコア0.8034で2位にランクされた。
- 参考スコア(独自算出の注目度): 28.25006244616817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While misinformation and disinformation have been thriving in social media
for years, with the emergence of the COVID-19 pandemic, the political and the
health misinformation merged, thus elevating the problem to a whole new level
and giving rise to the first global infodemic. The fight against this infodemic
has many aspects, with fact-checking and debunking false and misleading claims
being among the most important ones. Unfortunately, manual fact-checking is
time-consuming and automatic fact-checking is resource-intense, which means
that we need to pre-filter the input social media posts and to throw out those
that do not appear to be check-worthy. With this in mind, here we propose a
model for detecting check-worthy tweets about COVID-19, which combines deep
contextualized text representations with modeling the social context of the
tweet. We further describe a number of additional experiments and comparisons,
which we believe should be useful for future research as they provide some
indication about what techniques are effective for the task. Our official
submission to the English version of CLEF-2020 CheckThat! Task 1, system
Team_Alex, was ranked second with a MAP score of 0.8034, which is almost tied
with the wining system, lagging behind by just 0.003 MAP points absolute.
- Abstract(参考訳): 偽情報や偽情報の拡散は、新型コロナウイルス(COVID-19)のパンデミックの出現とともにソーシャルメディアで長年続いているが、政治的・健康的な偽情報が融合し、問題が全く新しいレベルに上昇し、世界初となるインフォデミックがもたらされた。
このインフォデミックとの戦いには多くの側面があり、事実確認と虚偽や誤解を招く主張が最も重要なものの一つである。
残念なことに、手動のファクトチェックは時間がかかり、自動ファクトチェックはリソースインテンスであり、入力されたソーシャルメディア投稿を事前にフィルターし、チェック価値のないものを捨てる必要がある。
このことを念頭に置いて、covid-19に関するチェックに値するツイートを検出するモデルを提案し、深い文脈化されたテキスト表現と、ツイートの社会的コンテキストのモデル化を組み合わせた。
我々はさらに,今後の研究において,どのような手法がタスクに有効であるのかを示唆する上で有用であると考えられる,いくつかの実験と比較について述べる。
英語版CLEF-2020 CheckThat!
Task 1 システム Team_Alex は MAP スコア 0.8034 で2位にランクされ、勝利システムとほぼ結びついており、0.003 MAP ポイントで遅れている。
関連論文リスト
- ThangDLU at #SMM4H 2024: Encoder-decoder models for classifying text data on social disorders in children and adolescents [49.00494558898933]
本稿では,#SMM4H (Social Media Mining for Health) 2024 Workshopのタスク3とタスク5への参加について述べる。
タスク3は、屋外環境が社会不安の症状に与える影響を議論するツイートを中心にした多クラス分類タスクである。
タスク5は、子供の医学的障害を報告しているツイートに焦点を当てたバイナリ分類タスクを含む。
BART-baseやT5-smallのような事前訓練されたエンコーダデコーダモデルからの転送学習を適用し、与えられたツイートの集合のラベルを同定した。
論文 参考訳(メタデータ) (2024-04-30T17:06:20Z) - The Earth is Flat? Unveiling Factual Errors in Large Language Models [89.94270049334479]
ChatGPTのような大規模言語モデル(LLM)は、事前学習や微調整の知識が豊富にあるため、様々な応用がある。
それにもかかわらず、医療、ジャーナリズム、教育といった重要な分野に懸念を抱き、事実と常識の誤りを引き起こす傾向にある。
LLMにおける事実不正確な事実を明らかにすることを目的とした,新しい自動テストフレームワークであるFactCheckerを紹介する。
論文 参考訳(メタデータ) (2024-01-01T14:02:27Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - CrowdChecked: Detecting Previously Fact-Checked Claims in Social Media [19.688259030184508]
修正された自己適応学習に基づいてノイズの多いデータから学習するエンド・ツー・エンドのフレームワークを提案する。
CLEF'21 CheckThat!テストセットの実験では,2点の絶対値による技術状況の改善が示されている。
論文 参考訳(メタデータ) (2022-10-10T06:05:52Z) - Rumor Detection with Self-supervised Learning on Texts and Social Graph [101.94546286960642]
異種情報ソース上での自己教師型学習を対照的に提案し,それらの関係を明らかにするとともに,噂をよりよく特徴付ける。
我々はこの枠組みをSRD(Self-supervised Rumor Detection)と呼ぶ。
3つの実世界のデータセットに対する大規模な実験により、ソーシャルメディア上での噂の自動検出におけるSRDの有効性が検証された。
論文 参考訳(メタデータ) (2022-04-19T12:10:03Z) - Twitter-COMMs: Detecting Climate, COVID, and Military Multimodal
Misinformation [83.2079454464572]
本稿では,DARPAセマンティック・フォレスティクス(SemaFor)プログラムにおける画像テキスト不整合検出へのアプローチについて述べる。
Twitter-COMMsは大規模マルチモーダルデータセットで、884万のツイートが気候変動、新型コロナウイルス、軍用車両のトピックに関連する。
我々は、最先端のCLIPモデルに基づいて、自動生成されたランダムとハードのネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガ
論文 参考訳(メタデータ) (2021-12-16T03:37:20Z) - Findings of the NLP4IF-2021 Shared Tasks on Fighting the COVID-19
Infodemic and Censorship Detection [23.280506220186425]
NLP4IF-2021共有タスクの結果を示す。
10チームがタスク1にシステムを提出し、1チームがタスク2に参加した。
最高のシステムは、事前訓練されたトランスフォーマーとアンサンブルを使用する。
論文 参考訳(メタデータ) (2021-09-23T06:38:03Z) - Misleading the Covid-19 vaccination discourse on Twitter: An exploratory
study of infodemic around the pandemic [0.45593531937154413]
我々は7ヶ月(2020年9月~2021年3月)のコビッドウイルスワクチン接種に関連する中規模のツイートコーパス(20万件)を収集する。
Transfer Learningのアプローチに従えば、事前訓練されたTransformerベースのXLNetモデルを使用して、ツイートをミスリーディングまたは非ミスリーディングに分類する。
我々は、自然に誤解を招くコーパスのツイートの特徴と非誤解を招くツイートの特徴を調査・対比するためにこの手法を構築した。
いくつかのMLモデルは、最大90%の精度で予測に使用され、各特徴の重要性は、SHAP Explainable AI (X)を用いて説明される。
論文 参考訳(メタデータ) (2021-08-16T17:02:18Z) - g2tmn at Constraint@AAAI2021: Exploiting CT-BERT and Ensembling Learning
for COVID-19 Fake News Detection [0.0]
結果がConstraint@AAAI2021 Shared Task: COVID-19 Fake News Detection in Englishで発表されました。
本稿では,トランスフォーマーを用いた COVID-Twitter-BERT (CT-BERT) モデルのアンサンブルを用いたアプローチを提案する。
その結果,テストセットで98.69の重み付きF1スコアを達成した。
論文 参考訳(メタデータ) (2020-12-22T12:43:12Z) - Not-NUTs at W-NUT 2020 Task 2: A BERT-based System in Identifying
Informative COVID-19 English Tweets [0.0]
本稿では、英語のつぶやきを前提として、そのツイートがCOVID-19に関する情報的内容を持つかどうかを自動的に識別するモデルを提案する。
インフォメーションクラスにおけるF1スコアの約1%は、トップパフォーマンスチームによる結果にしか影響しない競争的な結果を達成しました。
論文 参考訳(メタデータ) (2020-09-14T15:49:16Z) - Misinformation Has High Perplexity [55.47422012881148]
疑似クレームを教師なしの方法でデバンクするために, 難易度を活用することを提案する。
まず,これらの主張に類似した文に基づいて,科学的およびニュースソースから信頼性のある証拠を抽出する。
第2に,抽出したエビデンスを言語モデルにプライマリし,難易度スコアに基づいて与えられたクレームの正当性を評価する。
論文 参考訳(メタデータ) (2020-06-08T15:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。