論文の概要: Classification of Hope in Textual Data using Transformer-Based Models
- arxiv url: http://arxiv.org/abs/2511.12874v1
- Date: Mon, 17 Nov 2025 02:07:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.598453
- Title: Classification of Hope in Textual Data using Transformer-Based Models
- Title(参考訳): 変圧器モデルを用いたテキストデータの希望の分類
- Authors: Chukwuebuka Fortunate Ijezue, Tania-Amanda Fredrick Eneye, Maaz Amjad,
- Abstract要約: 本稿では,テキスト中の希望表現を分類するためのトランスフォーマーに基づくアプローチを提案する。
我々は2進分類(ホップ対ノーホープ)と多クラス分類(5つの希望関連カテゴリ)の3つのアーキテクチャを開発し比較した。
BERTはより優れた性能(84.49%のバイナリ、72.03%のマルチクラス精度)を示し、新しいアーキテクチャよりも計算資源(443sと704sのトレーニング時間)をはるかに少なくした。
GPT-2 の精度は低い (79.34% のバイナリ、71.29% のマルチクラス) が、DeBERTa は適度な結果 (80.70% のバイナリ、71.56% のマルチクラス) を得たが、計算能力はかなり高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents a transformer-based approach for classifying hope expressions in text. We developed and compared three architectures (BERT, GPT-2, and DeBERTa) for both binary classification (Hope vs. Not Hope) and multiclass categorization (five hope-related categories). Our initial BERT implementation achieved 83.65% binary and 74.87% multiclass accuracy. In the extended comparison, BERT demonstrated superior performance (84.49% binary, 72.03% multiclass accuracy) while requiring significantly fewer computational resources (443s vs. 704s training time) than newer architectures. GPT-2 showed lowest overall accuracy (79.34% binary, 71.29% multiclass), while DeBERTa achieved moderate results (80.70% binary, 71.56% multiclass) but at substantially higher computational cost (947s for multiclass training). Error analysis revealed architecture-specific strengths in detecting nuanced hope expressions, with GPT-2 excelling at sarcasm detection (92.46% recall). This study provides a framework for computational analysis of hope, with applications in mental health and social media analysis, while demonstrating that architectural suitability may outweigh model size for specialized emotion detection tasks.
- Abstract(参考訳): 本稿では,テキスト中の希望表現を分類するためのトランスフォーマーに基づくアプローチを提案する。
我々は,2進分類 (Hope vs. Not Hope) と多クラス分類 (5つの希望関連カテゴリ) の3つのアーキテクチャ (BERT, GPT-2, DeBERTa) を開発し,比較した。
最初のBERT実装は、83.65%のバイナリと74.87%のマルチクラスの精度を達成した。
拡張比較では、BERTはより優れた性能(84.49%のバイナリ、72.03%のマルチクラス精度)を示し、新しいアーキテクチャよりも計算資源(443sと704sのトレーニング時間)をはるかに少なくした。
GPT-2 の精度は低い (79.34% のバイナリ、71.29% のマルチクラス) が、DeBERTa は適度な結果 (80.70% のバイナリ、71.56% のマルチクラス) を得たが、計算コストはかなり高い (947 のマルチクラストレーニング)。
エラー解析の結果,GPT-2は肉腫検出に優れ,92.46%のリコールが認められた。
本研究は、心的健康やソーシャルメディア分析に応用された希望の計算分析のための枠組みを提供するとともに、特定の感情検出タスクのモデルサイズよりも建築的適合性が優れていることを実証する。
関連論文リスト
- UI-Ins: Enhancing GUI Grounding with Multi-Perspective Instruction-as-Reasoning [51.54456545661045]
本稿では,インストラクション・アズ・ア・推論(Instruction-as-Reasoning)パラダイムを導入し,インストラクションを動的解析経路として扱う。
これを実現するために,教師付き微調整と強化学習という2段階のトレーニングフレームワークを提案する。
得られたモデルであるUI-Ins-7BとUI-Ins-32Bは、5つの挑戦的なグラウンドベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2025-10-23T07:18:32Z) - Balanced Multi-Task Attention for Satellite Image Classification: A Systematic Approach to Achieving 97.23% Accuracy on EuroSAT Without Pre-Training [0.0]
本研究は、衛星土地利用分類のための独自の畳み込みニューラルネットワークアーキテクチャを体系的に研究する。
事前訓練されたモデルに依存することなく、EuroSATデータセット上で97.23%のテスト精度を達成する。
我々の手法は、外部データを必要としない微調整されたResNet-50(98.57%)の1.34%で性能を達成する。
論文 参考訳(メタデータ) (2025-10-17T10:59:24Z) - Advanced Multi-Architecture Deep Learning Framework for BIRADS-Based Mammographic Image Retrieval: Comprehensive Performance Analysis with Super-Ensemble Optimization [0.0]
マンモグラフィ画像検索システムでは、5つの異なるクラスにまたがる正確なBIRADSカテゴリマッチングが必要である。
現在の医用画像検索研究は方法論的限界に悩まされている。
論文 参考訳(メタデータ) (2025-08-06T18:05:18Z) - Malware Classification from Memory Dumps Using Machine Learning, Transformers, and Large Language Models [1.038088229789127]
本研究では,異なる特徴セットとデータ構成を用いたマルウェア分類タスクにおける各種分類モデルの性能について検討する。
XGBはTop 45 Featuresで87.42%の精度を達成し、他の全てのモデルを上回った。
ディープラーニングモデルはパフォーマンスが悪く、RNNは66.71%の精度でトランスフォーマーは71.59%に達した。
論文 参考訳(メタデータ) (2025-03-04T00:24:21Z) - Fine-tuning BERT with Bidirectional LSTM for Fine-grained Movie Reviews Sentiment Analysis [0.0]
映画レビューにおいて,Bidirectional LSTM (BiLSTM) を用いて事前学習したBERTモデルを微調整し,バイナリと微細なSAを両立させる。
本稿では,ベンチマークデータセットを用いた二項分類ときめ細かな分類について述べる。
論文 参考訳(メタデータ) (2025-02-28T03:30:48Z) - EquiBench: Benchmarking Large Language Models' Reasoning about Program Semantics via Equivalence Checking [58.15568681219339]
大規模言語モデル(LLM)を評価するための新しいベンチマークであるEquiBenchを紹介する。
このタスクは、プログラムのセマンティクスについて推論するモデルの能力を直接テストする。
19の最先端LCMを評価し、最も難しいカテゴリでは、最高の精度は63.8%と76.2%であり、50%のランダムベースラインよりわずかに高い。
論文 参考訳(メタデータ) (2025-02-18T02:54:25Z) - Building Math Agents with Multi-Turn Iterative Preference Learning [56.71330214021884]
本稿では,モデル性能をさらに向上させるために,補完的な直接選好学習手法について検討する。
既存の直接選好学習アルゴリズムは、もともとシングルターンチャットタスク用に設計されている。
この文脈に合わせたマルチターン直接選好学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-04T02:41:04Z) - Pretraining Without Attention [114.99187017618408]
本研究では、状態空間モデル(SSM)に基づくシーケンスルーティングの最近の進歩を利用して、注意を払わずに事前学習を探索する。
BiGS は GLUE 上で BERT の事前トレーニング精度と一致し、近似なしで 4096 トークンの長期事前トレーニングに拡張できる。
論文 参考訳(メタデータ) (2022-12-20T18:50:08Z) - ERNIE-SPARSE: Learning Hierarchical Efficient Transformer Through
Regularized Self-Attention [48.697458429460184]
情報ボトルネック感度と異なる注目トポロジ間の不整合の2つの要因がスパース変換器の性能に影響を及ぼす可能性がある。
本稿では,ERNIE-Sparseというモデルを提案する。
i) 局所情報とグローバル情報を逐次統一する階層スパース変換器(HST) と、(ii) 注意トポロジの異なる変換器の距離を最小化する自己注意正規化(SAR) の2つの特徴がある。
論文 参考訳(メタデータ) (2022-03-23T08:47:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。