論文の概要: Large-scale, Language-agnostic Discourse Classification of Tweets During
COVID-19
- arxiv url: http://arxiv.org/abs/2008.00461v2
- Date: Sat, 31 Oct 2020 15:03:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 19:29:31.289196
- Title: Large-scale, Language-agnostic Discourse Classification of Tweets During
COVID-19
- Title(参考訳): COVID-19におけるツイートの大規模・言語に依存しない談話分類
- Authors: Oguzhan Gencoglu
- Abstract要約: 機械学習を用いた大規模Twitter談話分類を行うために,言語に依存しないつぶやき表現を提案する。
新型コロナウイルス(COVID-19)のツイート2600万件を分析したところ、公衆の会話を大規模に監視することは可能だった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantifying the characteristics of public attention is an essential
prerequisite for appropriate crisis management during severe events such as
pandemics. For this purpose, we propose language-agnostic tweet representations
to perform large-scale Twitter discourse classification with machine learning.
Our analysis on more than 26 million COVID-19 tweets shows that large-scale
surveillance of public discourse is feasible with computationally lightweight
classifiers by out-of-the-box utilization of these representations.
- Abstract(参考訳): 公衆の注意の特徴を定量化することは、パンデミックなどの深刻な出来事における適切な危機管理の必須条件である。
そこで本稿では,機械学習を用いた大規模Twitter談話分類を行うために,言語に依存しないつぶやき表現を提案する。
2600万人以上のCOVID-19ツイートを分析してみると、これらの表現のアウト・オブ・ボックス利用によって、計算的に軽量な分類器によって、公開談話の大規模監視が実現可能であることが分かる。
関連論文リスト
- STAB: Speech Tokenizer Assessment Benchmark [57.45234921100835]
音声を離散トークンとして表現することは、音声をテキストによく似たフォーマットに変換するためのフレームワークを提供する。
Speech Tokenizer Assessment Benchmark(STAB)は,音声トークンを包括的に評価するシステム評価フレームワークである。
我々はSTABのメトリクスを評価し、これを音声タスクやトークン化ツールの選択の範囲でダウンストリームタスクのパフォーマンスと相関付けする。
論文 参考訳(メタデータ) (2024-09-04T02:20:59Z) - Text Classification via Large Language Models [63.1874290788797]
テキスト分類に関わる複雑な言語現象に対処するために、Clue And Reasoning Prompting (CARP)を導入する。
注目すべきは、CARPが5つの広く使用されているテキスト分類ベンチマークのうち4つで新しいSOTAパフォーマンスを得ることだ。
さらに重要なのは、CARPが低リソースとドメイン適応のセットアップで素晴らしい能力を提供します。
論文 参考訳(メタデータ) (2023-05-15T06:24:45Z) - Twitter conversations predict the daily confirmed COVID-19 cases [0.2320417845168326]
パンデミック特有の談話は、TwitterやWeiboのようなマイクロブログプラットフォーム上では、今も続いている。
本稿では、新型コロナウイルス関連Twitter会話から複数の時系列を設計するための感情関連トピックベースの方法論を提案する。
モデリングにソーシャルメディア変数を組み込むことで、RMSEのベースラインモデルよりも48.83-51.38%の改善がもたらされることが示されている。
論文 参考訳(メタデータ) (2022-06-21T15:31:06Z) - On Guiding Visual Attention with Language Specification [76.08326100891571]
注意をそらすのではなく,タスク関連機能に分類証拠を限定するためのアドバイスとして,ハイレベルな言語仕様を用いる。
この方法で空間的注意を監督することは、偏りのあるノイズのあるデータを用いた分類タスクの性能を向上させる。
論文 参考訳(メタデータ) (2022-02-17T22:40:19Z) - Prediction of Listener Perception of Argumentative Speech in a
Crowdsourced Data Using (Psycho-)Linguistic and Fluency Features [24.14001104126045]
議論的発話のクラウドソースデータセットにおいてTEDトークスタイルの感情評価を予測することを目的としている。
本稿では,TEDトーク音声の大規模データセット上で事前学習したモデルを微調整することにより,これらのカテゴリを予測するための分類タスクに有効なアプローチを提案する。
論文 参考訳(メタデータ) (2021-11-13T15:07:13Z) - Unified and Multilingual Author Profiling for Detecting Haters [0.0]
このフレームワークは、ツイートを文変換器でエンコードし、ユーザプロファイルを学習するための重要なツイートを選択するためのアテンションメカニズムを適用する。
提案モデルは,最先端の多言語トランスモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-09-19T21:53:23Z) - Changes in European Solidarity Before and During COVID-19: Evidence from
a Large Crowd- and Expert-Annotated Twitter Dataset [77.27709662210363]
我々は,NLPにおける教師付き機械学習の新たな課題として,社会的連帯という社会科学的概念とその競争,反連帯の概念を導入する。
我々は,複数のアノテータと2つのアノテーションアプローチ(専門家対群衆)を利用して,(反)整合性表現のための2.3kの英語とドイツ語のつぶやきを注釈する。
今回の結果は、新型コロナウイルス危機で連帯がますます健全になり、競争が激化したことを示している。
論文 参考訳(メタデータ) (2021-08-02T17:03:12Z) - Comparing Supervised Models And Learned Speech Representations For
Classifying Intelligibility Of Disordered Speech On Selected Phrases [11.3463024120429]
提案手法は,選択したフレーズに対して,混乱した音声の理解度を分類するために,異なる深層学習手法を開発し,比較する。
各種自己申告障害を有する661人の話者から29の単語やフレーズを発話するサンプルを収集した。
論文 参考訳(メタデータ) (2021-07-08T17:24:25Z) - COVID-19 Tweets Analysis through Transformer Language Models [0.0]
本研究では、COVID-19におけるツイートの詳細な感情分析を行う。
訓練されたトランスフォーマーモデルは、ツイートのトーンを高精度で正確に予測することができる。
次にこのモデルを利用して、covid-19の20万ツイートのトーンを予測する。
論文 参考訳(メタデータ) (2021-02-27T12:06:33Z) - Do Language Embeddings Capture Scales? [54.1633257459927]
事前学習された言語モデルは、オブジェクトのスカラーサイズに関するかなりの量の情報を取得することを示す。
我々は,事前学習と数理化における文脈情報を,その性能に影響を及ぼす2つの重要な要因として認識する。
論文 参考訳(メタデータ) (2020-10-11T21:11:09Z) - Unsupervised Cross-lingual Representation Learning for Speech
Recognition [63.85924123692923]
XLSRは、複数の言語における音声の生波形から1つのモデルを事前学習することで、言語間音声表現を学習する。
我々は、マスク付き潜在音声表現よりも対照的なタスクを解くことで訓練されたwav2vec 2.0を構築した。
実験により、言語間事前学習はモノリンガル事前訓練よりも著しく優れていることが示された。
論文 参考訳(メタデータ) (2020-06-24T18:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。