論文の概要: Z-Index at CheckThat! Lab 2022: Check-Worthiness Identification on Tweet
Text
- arxiv url: http://arxiv.org/abs/2207.07308v1
- Date: Fri, 15 Jul 2022 06:21:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-18 13:17:56.210240
- Title: Z-Index at CheckThat! Lab 2022: Check-Worthiness Identification on Tweet
Text
- Title(参考訳): Z-Index at CheckThat!
Lab 2022: つぶやきテキストによるチェックウェアネスの識別
- Authors: Prerona Tarannum, Firoj Alam, Md. Arid Hasan, Sheak Rashed Haider
Noori
- Abstract要約: Subtask-1A: Check-worthiness of tweets(英語、オランダ語、スペイン語) of CheckThat! lab at CLEF 2022。
我々は、標準的な事前処理のステップを実行し、与えられたテキストが事実チェックに値するかどうかを識別するために異なるモデルを適用した。
また,実験にはBERT多言語モデル (BERT-m) とXLM-RoBERTa-base を用いた。
- 参考スコア(独自算出の注目度): 2.0887898772540217
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The wide use of social media and digital technologies facilitates sharing
various news and information about events and activities. Despite sharing
positive information misleading and false information is also spreading on
social media. There have been efforts in identifying such misleading
information both manually by human experts and automatic tools. Manual effort
does not scale well due to the high volume of information, containing factual
claims, are appearing online. Therefore, automatically identifying check-worthy
claims can be very useful for human experts. In this study, we describe our
participation in Subtask-1A: Check-worthiness of tweets (English, Dutch and
Spanish) of CheckThat! lab at CLEF 2022. We performed standard preprocessing
steps and applied different models to identify whether a given text is worthy
of fact checking or not. We use the oversampling technique to balance the
dataset and applied SVM and Random Forest (RF) with TF-IDF representations. We
also used BERT multilingual (BERT-m) and XLM-RoBERTa-base pre-trained models
for the experiments. We used BERT-m for the official submissions and our
systems ranked as 3rd, 5th, and 12th in Spanish, Dutch, and English,
respectively. In further experiments, our evaluation shows that transformer
models (BERT-m and XLM-RoBERTa-base) outperform the SVM and RF in Dutch and
English languages where a different scenario is observed for Spanish.
- Abstract(参考訳): ソーシャルメディアとデジタル技術の幅広い利用は、様々なニュースやイベントや活動に関する情報の共有を促進する。
ポジティブな情報の誤解や誤った情報の共有もソーシャルメディアで広まっている。
このような誤解を招く情報を、人手による手作業と自動ツールの両方で識別する努力がなされている。
事実的クレームを含む大量の情報がオンラインに表示されているため、手作業はうまくスケールしない。
したがって、チェックに値するクレームを自動的に識別することは、人間の専門家にとって非常に有用である。
本研究では, CLEF 2022のCheckThat!のツイート(英語, オランダ語, スペイン語)がSubtask-1Aに含まれることを説明する。
標準前処理を行い,各テキストが事実チェックに値するかどうかを識別するために異なるモデルを適用した。
我々はデータセットのバランスをとるためにオーバーサンプリング手法を使用し、SVMとランダムフォレスト(RF)をTF-IDF表現に適用した。
また,実験にはBERT多言語モデル (BERT-m) とXLM-RoBERTa-base を用いた。
公式提出書にはBERT-mを用い, スペイン語, オランダ語, 英語では第3位, 第5位, 第12位にランクインした。
さらに,オランダ語と英語では変圧器モデル (BERT-m, XLM-RoBERTa-base) がSVMおよびRFより優れており,スペイン語では異なるシナリオが観察されている。
関連論文リスト
- Cross-lingual Transfer Learning for Check-worthy Claim Identification
over Twitter [7.601937548486356]
ソーシャルメディアに拡散する誤報は、疑わしいインフォデミックになっている。
本稿では,多言語BERT(mBERT)モデルを用いて,5つの多言語対をまたいだ言語間チェックハーネス推定のための6つの手法を体系的に検討する。
以上の結果から,いくつかの言語対では,ゼロショットの言語間移動が可能であり,対象言語で訓練された単言語モデルに匹敵する性能が得られた。
論文 参考訳(メタデータ) (2022-11-09T18:18:53Z) - Detecting Text Formality: A Study of Text Classification Approaches [78.11745751651708]
本研究は,統計的,ニューラルベース,トランスフォーマーベースの機械学習手法に基づく形式性検出手法の体系的研究を初めて行う。
単言語,多言語,言語横断の3種類の実験を行った。
本研究は,モノリンガルおよび多言語形式分類タスクのためのトランスフォーマーベースモデルに対するChar BiLSTMモデルの克服を示す。
論文 参考訳(メタデータ) (2022-04-19T16:23:07Z) - BERTuit: Understanding Spanish language in Twitter through a native
transformer [70.77033762320572]
bfBERTuitは、これまでスペイン語のために提案された大きなトランスフォーマーで、2億3000万のスペイン語ツイートの膨大なデータセットで事前トレーニングされている。
私たちのモチベーションは、スペイン語のTwitterをよりよく理解し、このソーシャルネットワークにフォーカスしたアプリケーションに利用するための強力なリソースを提供することです。
論文 参考訳(メタデータ) (2022-04-07T14:28:51Z) - Zero Shot Crosslingual Eye-Tracking Data Prediction using Multilingual
Transformer Models [0.0]
本稿では,多言語データセットの読解パターンを予測するCMCL 2022共有タスクについて述べる。
本モデルでは, 平均偏差と標準偏差の統計的測度を予測するために, 変圧器のテキスト表現と回帰層を用いた手作業による特徴量を用いる。
エンド・ツー・エンドのモデルをトレーニングし、異なる言語から意味のある情報を抽出し、2つの別々のデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2022-03-30T17:11:48Z) - Matching Tweets With Applicable Fact-Checks Across Languages [27.762055254009017]
ソーシャルメディア投稿(ツイート)のクレームに対する既存のファクトチェックを自動的に見つけることに重点を置いています。
モノリンガル(英語のみ)、マルチリンガル(スペイン語、ポルトガル語)、クロスリンガル(ヒンディー語-英語)の設定において、分類と検索の両方の実験を行う。
4つの言語対における「マッチ」分類(平均精度93%)の有望な結果を示す。
論文 参考訳(メタデータ) (2022-02-14T23:33:02Z) - FacTeR-Check: Semi-automated fact-checking through Semantic Similarity
and Natural Language Inference [61.068947982746224]
FacTeR-Checkは、ファクトチェックされた情報の検索、未確認のクレームの検証、ソーシャルメディア上での危険な情報の追跡を可能にする。
このアーキテクチャは、NLI19-SPと呼ばれる新しいデータセットを使って検証されている。
この結果から,各ベンチマークにおける最先端性能と,61種類のホアックスの時間経過に伴う進化の有用な解析結果が得られた。
論文 参考訳(メタデータ) (2021-10-27T15:44:54Z) - FBERT: A Neural Transformer for Identifying Offensive Content [67.12838911384024]
fBERTは、SOLIDで再訓練されたBERTモデルである。
複数の英文データセット上での攻撃的内容の同定におけるfBERTの性能を評価し、SOLIDからインスタンスを選択するためのしきい値をテストする。
fBERTモデルは、コミュニティで自由に利用できるようになる。
論文 参考訳(メタデータ) (2021-09-10T19:19:26Z) - Transfer Learning for Mining Feature Requests and Bug Reports from
Tweets and App Store Reviews [4.446419663487345]
既存のアプローチでは、リコールと許容精度の高い機能要求やバグレポートの検出に失敗している。
我々は単言語と多言語の両方のBERTモデルを訓練し、その性能を最先端の手法と比較する。
論文 参考訳(メタデータ) (2021-08-02T06:51:13Z) - It's not Greek to mBERT: Inducing Word-Level Translations from
Multilingual BERT [54.84185432755821]
mBERT (multilingual BERT) は、言語間での移動を可能にするリッチな言語間表現を学習する。
我々はmBERTに埋め込まれた単語レベルの翻訳情報について検討し、微調整なしで優れた翻訳能力を示す2つの簡単な方法を提案する。
論文 参考訳(メタデータ) (2020-10-16T09:49:32Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - Accenture at CheckThat! 2020: If you say so: Post-hoc fact-checking of
claims using transformer-based models [0.0]
CLEF 2020 CheckThat! Lab, Task 1 on English and Arabic。
この共有タスクは、ソーシャルメディアテキストのクレームがプロとして事実チェックされるべきかどうかを評価する。
我々はBERTとRoBERTaモデルを用いて、プロのファクトチェッカーがレビューすべきソーシャルメディアテキストのクレームを特定した。
論文 参考訳(メタデータ) (2020-09-05T01:44:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。