論文の概要: Transformer-based classification of premise in tweets related to
COVID-19
- arxiv url: http://arxiv.org/abs/2209.03851v1
- Date: Thu, 8 Sep 2022 14:46:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 12:25:51.536463
- Title: Transformer-based classification of premise in tweets related to
COVID-19
- Title(参考訳): トランスフォーマーによるCOVID-19関連ツイートの前提の分類
- Authors: Vadim Porvatov, Natalia Semenova
- Abstract要約: 本研究では,Twitterテキストにおける前提の存在を分類するために,トランスフォーマーアーキテクチャに基づく予測モデルを提案する。
Twitterデータセットを用いた実験の結果,RoBERTaは前提予測タスクの場合,他のトランスフォーマーモデルよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 2.404619556677874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automation of social network data assessment is one of the classic challenges
of natural language processing. During the COVID-19 pandemic, mining people's
stances from public messages have become crucial regarding understanding
attitudes towards health orders. In this paper, the authors propose the
predictive model based on transformer architecture to classify the presence of
premise in Twitter texts. This work is completed as part of the Social Media
Mining for Health (SMM4H) Workshop 2022. We explored modern transformer-based
classifiers in order to construct the pipeline efficiently capturing tweets
semantics. Our experiments on a Twitter dataset showed that RoBERTa is superior
to the other transformer models in the case of the premise prediction task. The
model achieved competitive performance with respect to ROC AUC value 0.807, and
0.7648 for the F1 score.
- Abstract(参考訳): ソーシャルネットワークのデータアセスメントの自動化は、自然言語処理の古典的な課題の1つだ。
新型コロナウイルス(covid-19)のパンデミックの間、公衆メッセージからの人々の態度のマイニングは、健康秩序に対する態度を理解する上で重要になっている。
本稿では,twitterテキストにおける前提の存在を分類するために,トランスフォーマーアーキテクチャに基づく予測モデルを提案する。
この研究は2022年のSMM4H(Social Media Mining for Health)ワークショップで完了した。
ツイートのセマンティクスを効率的にキャプチャするパイプラインを構築するために,現代的なトランスフォーマティブベースの分類器を検討した。
Twitterデータセットを用いた実験の結果,RoBERTaは前提予測タスクの場合,他のトランスフォーマーモデルよりも優れていることがわかった。
このモデルはROC AUC値0.807とF1スコア0.7648の競争性能を達成した。
関連論文リスト
- ThangDLU at #SMM4H 2024: Encoder-decoder models for classifying text data on social disorders in children and adolescents [49.00494558898933]
本稿では,#SMM4H (Social Media Mining for Health) 2024 Workshopのタスク3とタスク5への参加について述べる。
タスク3は、屋外環境が社会不安の症状に与える影響を議論するツイートを中心にした多クラス分類タスクである。
タスク5は、子供の医学的障害を報告しているツイートに焦点を当てたバイナリ分類タスクを含む。
BART-baseやT5-smallのような事前訓練されたエンコーダデコーダモデルからの転送学習を適用し、与えられたツイートの集合のラベルを同定した。
論文 参考訳(メタデータ) (2024-04-30T17:06:20Z) - Text Augmentations with R-drop for Classification of Tweets Self
Reporting Covid-19 [28.91836510067532]
本稿では,ソーシャル・メディア・マイニング・フォー・ヘルス2023共有タスクのためのモデルを提案する。
我々のアプローチは、多種多様なテキスト拡張を取り入れた分類モデルである。
テストセットのF1スコアは0.877である。
論文 参考訳(メタデータ) (2023-11-06T14:18:16Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - How to Estimate Model Transferability of Pre-Trained Speech Models? [84.11085139766108]
事前学習音声モデルの伝達可能性推定のためのスコアベースアセスメントフレームワーク
ベイズ確率推定と最適輸送という2つの表現理論を利用して、PSM候補のランクスコアを生成する。
本フレームワークは,候補モデルやレイヤを実際に微調整することなく,転送可能性スコアを効率的に計算する。
論文 参考訳(メタデータ) (2023-06-01T04:52:26Z) - TEDB System Description to a Shared Task on Euphemism Detection 2022 [0.0]
テキスト分類の最先端手法であるトランスフォーマーモデルについて検討した。
0.816 F1スコアの最良の結果は,特徴抽出器としてのエウヘミズム検出/TimeLMs予測RoBERTaモデルである。
論文 参考訳(メタデータ) (2023-01-16T20:37:56Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Transformers for prompt-level EMA non-response prediction [62.41658786277712]
エコロジー・モメンタリー・アセスメント(Ecological Momentary Assessments、EMA)は、認知状態、影響、行動、環境要因を測定するための重要な心理的データ源である。
参加者がEMAプロンプトに反応しない非応答は、内因性問題である。
非応答を正確に予測できる能力は、EMAのデリバリを改善し、コンプライアンスの介入を開発するために利用することができる。
論文 参考訳(メタデータ) (2021-11-01T18:38:47Z) - Understanding Transformers for Bot Detection in Twitter [0.0]
Twitterのボット検出は、ソーシャルメディアにおける偽情報や偏見の自動拡散を緩和し、対処するための重要なタスクである。
ボットまたは人間のアカウントが生成するツイートを、そのコンテンツのみに基づいて検出するために、事前学習された言語モデルの使用について検討する。
ボット検出タスクの微調整ジェネレーティブトランスがより高い精度を生み出すことを観察する。
論文 参考訳(メタデータ) (2021-04-13T13:32:55Z) - Utilizing Self-supervised Representations for MOS Prediction [51.09985767946843]
既存の評価は通常、クリーンな参照または平行な地上真実データを必要とする。
一方、主観的テストは、追加のクリーンデータや並列データを必要としず、人間の知覚とよりよく相関する。
基礎的真理データを必要とせず,人間の知覚とよく相関する自動評価手法を開発した。
論文 参考訳(メタデータ) (2021-04-07T09:44:36Z) - COVID-19 Tweets Analysis through Transformer Language Models [0.0]
本研究では、COVID-19におけるツイートの詳細な感情分析を行う。
訓練されたトランスフォーマーモデルは、ツイートのトーンを高精度で正確に予測することができる。
次にこのモデルを利用して、covid-19の20万ツイートのトーンを予測する。
論文 参考訳(メタデータ) (2021-02-27T12:06:33Z) - COVID-Twitter-BERT: A Natural Language Processing Model to Analyse
COVID-19 Content on Twitter [0.0]
私たちは、COVID-19のトピックに関する大量のTwitterメッセージのコーパスで事前トレーニングされた、トランスフォーマーベースのモデルであるCOVID-Twitter-BERT(CT-BERT)をリリースします。
本モデルでは,5つの分類データセットにおいて,ベースモデルであるBERT-Largeと比較して10~30%の限界改善を示した。
CT-BERTは、新型コロナウイルスのコンテンツ、特にTwitterのソーシャルメディア投稿に使用されるように最適化されている。
論文 参考訳(メタデータ) (2020-05-15T12:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。