論文の概要: Comparative Analysis of Transformer Models in Disaster Tweet Classification for Public Safety
- arxiv url: http://arxiv.org/abs/2509.04650v2
- Date: Mon, 08 Sep 2025 16:28:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.396959
- Title: Comparative Analysis of Transformer Models in Disaster Tweet Classification for Public Safety
- Title(参考訳): 公共安全のための災害つぶやき分類における変圧器モデルの比較分析
- Authors: Sharif Noor Zisad, N. M. Istiak Chowdhury, Ragib Hasan,
- Abstract要約: 本研究では,災害関連ツイートの分類において,BERTを含むトランスフォーマーモデルの有効性を評価する。
BERTは高い精度(91%)を達成し、ロジスティック回帰やネイブベイズといった従来のモデルよりもはるかに優れていた。
この研究は、トランスフォーマーアーキテクチャが公共の安全アプリケーションにずっと適していることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Twitter and other social media platforms have become vital sources of real time information during disasters and public safety emergencies. Automatically classifying disaster related tweets can help emergency services respond faster and more effectively. Traditional Machine Learning (ML) models such as Logistic Regression, Naive Bayes, and Support Vector Machines have been widely used for this task, but they often fail to understand the context or deeper meaning of words, especially when the language is informal, metaphorical, or ambiguous. We posit that, in this context, transformer based models can perform better than traditional ML models. In this paper, we evaluate the effectiveness of transformer based models, including BERT, DistilBERT, RoBERTa, and DeBERTa, for classifying disaster related tweets. These models are compared with traditional ML approaches to highlight the performance gap. Experimental results show that BERT achieved the highest accuracy (91%), significantly outperforming traditional models like Logistic Regression and Naive Bayes (both at 82%). The use of contextual embeddings and attention mechanisms allows transformer models to better understand subtle language in tweets, where traditional ML models fall short. This research demonstrates that transformer architectures are far more suitable for public safety applications, offering improved accuracy, deeper language understanding, and better generalization across real world social media text.
- Abstract(参考訳): Twitterや他のソーシャルメディアプラットフォームは、災害や公衆安全の緊急時において、リアルタイム情報の重要な情報源となっている。
災害関連ツイートの自動分類は、緊急サービスの応答を迅速かつ効率的にするのに役立つ。
Logistic Regression、Naive Bayes、Support Vector Machinesといった伝統的な機械学習(ML)モデルは、このタスクに広く使われてきたが、言葉の文脈や深い意味、特に言語が非公式、比喩的、曖昧である場合の理解に失敗することが多い。
この文脈では、トランスフォーマーベースのモデルは従来のMLモデルよりもパフォーマンスが良いと仮定する。
本稿では,災害関連ツイートの分類において,BERT,DistilBERT,RoBERTa,DeBERTaなどの変圧器モデルの有効性を評価する。
これらのモデルは、パフォーマンスギャップを強調するために、従来のMLアプローチと比較される。
実験の結果、BERTは高い精度(91%)を達成し、ロジスティック回帰やネイブベイズ(いずれも82%)といった従来のモデルよりも大幅に優れていた。
コンテキスト埋め込みとアテンションメカニズムを使用することで、従来のMLモデルは不足しているツイートの微妙な言語をより理解できるようになる。
この研究は、トランスフォーマーアーキテクチャが公共の安全アプリケーションにはるかに適していることを示し、精度の向上、言語理解の深化、現実のソーシャルメディアテキストの一般化を実現している。
関連論文リスト
- Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Hashing it Out: Predicting Unhealthy Conversations on Twitter [0.17175853976270528]
大規模Twitterコーパス上で事前学習されたアテンションベースのBERTアーキテクチャは,このような予測を行う上で効率的かつ効果的であることを示す。
この研究は、最もユビキタスなソーシャルメディアプラットフォームにおけるより良いインタラクションを促進するための実用的なツールの基礎を築いた。
論文 参考訳(メタデータ) (2023-11-17T15:49:11Z) - Performance Analysis of Transformer Based Models (BERT, ALBERT and
RoBERTa) in Fake News Detection [0.0]
住民の誤報や誤報に最もさらされた地域のトップ3は、バンテン、DKIジャカルタ、西ジャワである。
従来の研究では、BERTとして知られる変圧器モデルの非変圧器アプローチ上における優れた性能が示されている。
本研究では、これらのトランスモデルを探索し、ALBERTが87.6%の精度、86.9%の精度、86.9%のF1スコア、174.5の実行時間(s/epoch)で他のモデルより優れていることを発見した。
論文 参考訳(メタデータ) (2023-08-09T13:33:27Z) - MisRoB{\AE}RTa: Transformers versus Misinformation [0.6091702876917281]
本稿では,誤情報検出のためのトランスフォーマーに基づくニューラルアンサンブルアーキテクチャを提案する。
MisRobaerTaは、分類性能を改善するために、2つのトランスフォーマー(BARTとRoBERTa)を利用する。
トレーニングとテストのために、私たちは10のクラスでラベル付けされた大規模な現実世界のニュース記事データセットを使用しました。
論文 参考訳(メタデータ) (2023-04-16T12:14:38Z) - Neural Models for Offensive Language Detection [0.0]
攻撃的言語検出は、成長を続ける自然言語処理(NLP)アプリケーションである。
このような有害なコンテンツと戦うために、さまざまな機械学習モデルの改善と比較に貢献することが、この論文の重要な、挑戦的な目標である、と私たちは信じています。
論文 参考訳(メタデータ) (2021-05-30T13:02:45Z) - Transformer-based Language Model Fine-tuning Methods for COVID-19 Fake
News Detection [7.29381091750894]
偽ニュース検出のためのトランスフォーマーに基づく言語モデルの微調整手法を提案する。
まず、個々のモデルのトークン語彙を専門用語の実際の意味論のために拡張する。
最後に、普遍言語モデルRoBERTaとドメイン固有モデルCT-BERTによって抽出された予測特徴を、複数の層認識によって融合させ、微細で高レベルな特定の表現を統合する。
論文 参考訳(メタデータ) (2021-01-14T09:05:42Z) - Improving Sentiment Analysis over non-English Tweets using Multilingual
Transformers and Automatic Translation for Data-Augmentation [77.69102711230248]
我々は、英語のつぶやきを事前学習し、自動翻訳を用いてデータ拡張を適用して非英語の言語に適応する多言語トランスフォーマーモデルを提案する。
我々のフランス語、スペイン語、ドイツ語、イタリア語での実験は、この手法が非英語のツイートの小さなコーパスよりも、トランスフォーマーの結果を改善する効果的な方法であることを示唆している。
論文 参考訳(メタデータ) (2020-10-07T15:44:55Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z) - TERA: Self-Supervised Learning of Transformer Encoder Representation for
Speech [63.03318307254081]
TERA は Transformer Representations from Alteration の略である。
我々は3つの軸に沿った変形を用いて、大量のラベルなし音声でトランスフォーマーを事前訓練する。
TERAは、音声表現の抽出や下流モデルによる微調整に使用することができる。
論文 参考訳(メタデータ) (2020-07-12T16:19:00Z) - Learning Source Phrase Representations for Neural Machine Translation [65.94387047871648]
本稿では,対応するトークン表現から句表現を生成可能な注意句表現生成機構を提案する。
実験では,強力なトランスフォーマーベースライン上でのWMT 14の英語・ドイツ語・英語・フランス語タスクにおいて,大幅な改善が得られた。
論文 参考訳(メタデータ) (2020-06-25T13:43:11Z) - Phone Features Improve Speech Translation [69.54616570679343]
音声翻訳の終末モデル(ST)はより緊密にカップル音声認識(ASR)と機械翻訳(MT)を行う
カスケードモデルとエンド・ツー・エンドモデルを高,中,低リソース条件で比較し,カスケードがより強いベースラインを維持していることを示す。
これらの機能は両方のアーキテクチャを改善し、エンド・ツー・エンドのモデルとカスケードのギャップを埋め、これまでの学術的成果を最大9BLEUで上回ります。
論文 参考訳(メタデータ) (2020-05-27T22:05:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。