論文の概要: Hope Speech Detection in Social Media English Corpora: Performance of Traditional and Transformer Models
- arxiv url: http://arxiv.org/abs/2510.23585v1
- Date: Mon, 27 Oct 2025 17:53:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.655946
- Title: Hope Speech Detection in Social Media English Corpora: Performance of Traditional and Transformer Models
- Title(参考訳): ソーシャル・メディア・イングリッシュ・コーパスにおけるホープ音声検出 : 伝統・変圧器モデルの性能
- Authors: Luis Ramos, Hiram Calvo, Olga Kolesnikova,
- Abstract要約: 本提案では,学習データセットを学習,開発,テストセットとして,従来の機械学習モデルと微調整変換器の評価を行う。
トランスフォーマーモデルはより良い結果をもたらし、最良のモデルは重み付き精度が0.82、重み付きリコールが0.80、重み付きF1が0.79、マクロF1が0.79、精度が0.80に達した。
- 参考スコア(独自算出の注目度): 2.137286893609844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The identification of hope speech has become a promised NLP task, considering the need to detect motivational expressions of agency and goal-directed behaviour on social media platforms. This proposal evaluates traditional machine learning models and fine-tuned transformers for a previously split hope speech dataset as train, development and test set. On development test, a linear-kernel SVM and logistic regression both reached a macro-F1 of 0.78; SVM with RBF kernel reached 0.77, and Na\"ive Bayes hit 0.75. Transformer models delivered better results, the best model achieved weighted precision of 0.82, weighted recall of 0.80, weighted F1 of 0.79, macro F1 of 0.79, and 0.80 accuracy. These results suggest that while optimally configured traditional machine learning models remain agile, transformer architectures detect some subtle semantics of hope to achieve higher precision and recall in hope speech detection, suggesting that larges transformers and LLMs could perform better in small datasets.
- Abstract(参考訳): メディアプラットフォーム上での主体性や目標指向行動のモチベーションを検出する必要性を考慮して,希望音声の識別がNLPタスクとして約束されている。
本提案では,従来の機械学習モデルと微調整トランスフォーマーを用いて,事前分割された希望音声データセットをトレーニング,開発,テストセットとして評価する。
開発テストでは、線形カーネルのSVMとロジスティック回帰の両方が0.78のマクロF1に達し、RBFカーネルのSVMは0.77に達し、Na\"ive Bayesは0.75に達した。
トランスフォーマーモデルはより良い結果をもたらし、最良のモデルは重み付き精度が0.82、重み付きリコールが0.80、重み付きF1が0.79、マクロF1が0.79、精度が0.80に達した。
これらの結果は、最適に設定された従来の機械学習モデルがアジャイルのままである一方で、トランスフォーマーアーキテクチャは、高い精度を達成するために希望の微妙なセマンティクスを検知し、希望の音声検出においてリコールし、大規模トランスフォーマーとLLMが小さなデータセットでより良く機能することを示唆している。
関連論文リスト
- Handling Extreme Class Imbalance: Using GANs in Data Augmentation for Suicide Prediction [0.0]
十分な正のサンプルを持つ実データはまれであり、極端なクラス不均衡を引き起こす。
我々は機械学習(ML)を利用して、Geneversarative Adrial Networks(GAN)のようなモデルとディープラーニング(DL)技術を構築しました。
GANは自殺防止モデリングを支援するために合成データを生成する上で重要な役割を果たした。
論文 参考訳(メタデータ) (2025-10-20T15:35:39Z) - Improving Crash Data Quality with Large Language Models: Evidence from Secondary Crash Narratives in Kentucky [13.50189012080061]
本研究は, クラッシュ・ナラティブをマイニングすることで, クラッシュデータ品質を向上させるために, 高度な自然言語処理(NLP)技術を評価するものである。
2015-2022年の16,656件を手作業でレビューし、3,803件の二次衝突を確認し、3つのモデルクラスを比較した。
微調整トランスは優れた性能を発揮し、RoBERTaはF1スコア(0.90)、精度は95%だった。
論文 参考訳(メタデータ) (2025-08-06T12:41:18Z) - Multimodal Sentiment Analysis on CMU-MOSEI Dataset using Transformer-based Models [0.0]
本研究は,CMU-MOSEIデータセットを用いたマルチモーダル感情分析を行う。
我々は、テキスト、オーディオ、視覚のモダリティを統合するために、早期融合を伴うトランスフォーマーベースのモデルを使用する。
このモデルは、97.87%の7クラス精度と0.9682 F1スコアで高い性能を達成している。
論文 参考訳(メタデータ) (2025-05-09T15:10:57Z) - Pangu Ultra MoE: How to Train Your Big MoE on Ascend NPUs [111.69640966866059]
ミキチャー・オブ・エキスパート(MoE)と1兆近いパラメータを持つ疎大言語モデル(LLM)が、最も有能な言語モデルの領域を支配している。
本稿では,Ascend NPU上でそのようなスケールを利用するレシピを明らかにすることを目的としている。
主な目的は、動的スパースモデル構造下でのコンピューティングリソースのより良い使用と、実際のハードウェアで期待されるパフォーマンス向上の実現である。
論文 参考訳(メタデータ) (2025-05-07T15:46:36Z) - Learning Transformer-based World Models with Contrastive Predictive Coding [58.0159270859475]
変換器の表現能力を十分に活用するには,次の状態予測目標が不十分であることを示す。
本稿では,行動条件のContrastive Predictive Codingを用いた世界モデルであるTWISTERを導入することで,世界モデル予測をより長い時間的地平線まで拡張することを提案する。
TWISTERは、Atari 100kベンチマークで162%の人間正規化平均スコアを達成し、ルックアヘッド検索を使用しない最先端のメソッドの中で、新しい記録を樹立した。
論文 参考訳(メタデータ) (2025-03-06T13:18:37Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z) - HinglishNLP: Fine-tuned Language Models for Hinglish Sentiment Detection [0.0]
この研究は感情分析に2つの一般的なアプローチを加えている。
NB-SVMはRoBERTaを6.2%(相対)F1で破った。
最高の演奏モデルは、0.707のF1を達成する多数投票アンサンブルである。
論文 参考訳(メタデータ) (2020-08-22T12:01:44Z) - Conformer: Convolution-augmented Transformer for Speech Recognition [60.119604551507805]
最近、トランスフォーマーと畳み込みニューラルネットワーク(CNN)に基づくモデルが、自動音声認識(ASR)の有望な結果を示している。
音声認識のための畳み込み拡張変換器,Conformerを提案する。
広く使われているLibriSpeechベンチマークでは、言語モデルを用いずにWERが2.1%/4.3%、テスト/テストの外部言語モデルで1.9%/3.9%を達成した。
論文 参考訳(メタデータ) (2020-05-16T20:56:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。