論文の概要: Research on a hybrid LSTM-CNN-Attention model for text-based web content classification
- arxiv url: http://arxiv.org/abs/2512.18475v2
- Date: Fri, 26 Dec 2025 12:20:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 13:23:29.785831
- Title: Research on a hybrid LSTM-CNN-Attention model for text-based web content classification
- Title(参考訳): テキストベースのWebコンテンツ分類のためのハイブリッドLSTM-CNN-Attentionモデルに関する研究
- Authors: Mykola Kuz, Ihor Lazarovych, Mykola Kozlenko, Mykola Pikuliak, Andrii Kvasniuk,
- Abstract要約: 本研究では,LSTMとCNNを統合したハイブリッドなディープラーニングアーキテクチャと,テキストに基づくWebコンテンツの分類を強化するアテンション機構を提案する。
提案アーキテクチャは、テキストベースのWebコンテンツ分類において、特に構文的特徴抽出と意味解釈の両方を必要とするタスクにおいて、高い効果を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents a hybrid deep learning architecture that integrates LSTM, CNN, and an Attention mechanism to enhance the classification of web content based on text. Pretrained GloVe embeddings are used to represent words as dense vectors that preserve semantic similarity. The CNN layer extracts local n-gram patterns and lexical features, while the LSTM layer models long-range dependencies and sequential structure. The integrated Attention mechanism enables the model to focus selectively on the most informative parts of the input sequence. A 5-fold cross-validation setup was used to assess the robustness and generalizability of the proposed solution. Experimental results show that the hybrid LSTM-CNN-Attention model achieved outstanding performance, with an accuracy of 0.98, precision of 0.94, recall of 0.92, and F1-score of 0.93. These results surpass the performance of baseline models based solely on CNNs, LSTMs, or transformer-based classifiers such as BERT. The combination of neural network components enabled the model to effectively capture both fine-grained text structures and broader semantic context. Furthermore, the use of GloVe embeddings provided an efficient and effective representation of textual data, making the model suitable for integration into systems with real-time or near-real-time requirements. The proposed hybrid architecture demonstrates high effectiveness in text-based web content classification, particularly in tasks requiring both syntactic feature extraction and semantic interpretation. By combining presented mechanisms, the model addresses the limitations of individual architectures and achieves improved generalization. These findings support the broader use of hybrid deep learning approaches in NLP applications, especially where complex, unstructured textual data must be processed and classified with high reliability.
- Abstract(参考訳): 本研究では,LSTMとCNNを統合したハイブリッドなディープラーニングアーキテクチャと,テキストに基づくWebコンテンツの分類を強化するアテンション機構を提案する。
事前訓練されたGloVe埋め込みは、単語を意味的類似性を保存する密度の高いベクトルとして表現するために使用される。
CNN層は局所的なn-gramパターンと語彙的特徴を抽出し、LSTM層は長距離依存と逐次構造をモデル化する。
統合された注意機構により、モデルは入力シーケンスの最も情報性の高い部分に選択的にフォーカスすることができる。
提案手法のロバスト性と一般化性を評価するために, 5倍のクロスバリデーション・セットアップを用いた。
実験の結果,LSTM-CNN-Attentionモデルでは精度0.98,精度0.94,リコール0.92,F1スコア0.93が達成された。
これらの結果は、CNN、LSTM、BERTのようなトランスフォーマーベースの分類器のみに基づくベースラインモデルの性能を上回る。
ニューラルネットワークコンポーネントの組み合わせにより、詳細なテキスト構造とより広いセマンティックコンテキストの両方を効果的にキャプチャすることが可能になった。
さらに、GloVe埋め込みを使用することで、テキストデータの効率的かつ効果的な表現が可能となり、リアルタイムまたはほぼリアルタイムの要件を持つシステムへの統合に適したモデルが実現された。
提案したハイブリッドアーキテクチャは、テキストベースのウェブコンテンツ分類において、特に構文的特徴抽出と意味解釈の両方を必要とするタスクにおいて、高い効果を示す。
提示されたメカニズムを組み合わせることで、モデルは個々のアーキテクチャの限界に対処し、より優れた一般化を実現する。
これらの知見は,特に複雑で非構造化のテキストデータを高い信頼性で処理・分類する必要がある場合において,NLPアプリケーションにおけるハイブリッドディープラーニングアプローチの広範な活用を支援する。
関連論文リスト
- Advancing Text Classification with Large Language Models and Neural Attention Mechanisms [11.31737492247233]
このフレームワークには、テキストエンコーディング、コンテキスト表現モデリング、注意に基づく拡張、分類予測が含まれる。
その結果,提案手法はすべての指標において既存モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-12-10T09:18:41Z) - Semantic-Guided Natural Language and Visual Fusion for Cross-Modal Interaction Based on Tiny Object Detection [6.895355763564631]
本稿では, セマンティック誘導自然言語処理と高度な視覚認識バックボーンを組み合わせることで, オブジェクト検出のためのクロスモーダルインタラクションの最先端的手法を提案する。
提案手法は,BERT言語モデルとCNNに基づくParallel Residual Bi-Fusion Feature Pyramid Networkを統合する。
補題化と微調整技術を用いることで、テキスト入力から視覚的特徴にセマンティックキューを整列させ、小型で複雑な物体の検出精度を向上する。
論文 参考訳(メタデータ) (2025-11-07T18:38:00Z) - Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Adaptive Cyber-Attack Detection in IIoT Using Attention-Based LSTM-CNN Models [0.23408308015481666]
本研究では,ハイブリッドLSTM畳み込みニューラルネットワーク(CNN)のアーキテクチャに基づく高度な侵入検出(IDS)の開発と評価を行う。
本研究は二項分類と多項分類という2つの重要な分類課題に焦点を当てている。
バイナリ分類では、モデルはほぼ完全な精度を達成し、マルチクラス分類では、高い精度 (99.04%) を維持し、様々な攻撃タイプを0.0220%の損失値で効果的に分類した。
論文 参考訳(メタデータ) (2025-01-21T20:52:23Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Research on Dual Channel News Headline Classification Based on ERNIE
Pre-training Model [13.222137788045416]
提案モデルは従来のニューラルネットワークモデルと比較して,ニュース見出し分類の精度,精度,F1スコアを改善する。
大規模データ量でのニュース見出しテキストのマルチクラス化アプリケーションでは、うまく機能する。
論文 参考訳(メタデータ) (2022-02-14T10:44:12Z) - Recurrent Neural Networks with Mixed Hierarchical Structures and EM
Algorithm for Natural Language Processing [9.645196221785694]
我々は潜在指標層と呼ばれる手法を開発し、暗黙的な階層的情報を特定し学習する。
また、トレーニングにおいて潜在指標層を扱うEMアルゴリズムを開発した。
ブートストラップトレーニングによるEM-HRNNモデルは,文書分類タスクにおいて,他のRNNモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-21T23:08:33Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Adaptive Linear Span Network for Object Skeleton Detection [56.78705071830965]
本研究では,適応線形スパンネットワーク(AdaLSN)を提案する。
AdaLSNは、精度とレイテンシのトレードオフを著しく高めることで、その汎用性を裏付ける。
また、エッジ検出や道路抽出といったイメージ・ツー・マスクのタスクに適用可能であることも示している。
論文 参考訳(メタデータ) (2020-11-08T12:51:14Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。