論文の概要: An Efficient Hybrid Deep Learning Approach for Detecting Online Abusive Language
- arxiv url: http://arxiv.org/abs/2603.09984v1
- Date: Thu, 12 Feb 2026 06:13:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.524467
- Title: An Efficient Hybrid Deep Learning Approach for Detecting Online Abusive Language
- Title(参考訳): オンライン乱用言語検出のためのハイブリッド深層学習手法
- Authors: Vuong M. Ngo, Cach N. Dang, Kien V. Nguyen, Mark Roantree,
- Abstract要約: 本稿では,BERT,CNN,LSTMアーキテクチャをReLUアクティベーション関数と統合したハイブリッドディープラーニングモデルを提案する。
このモデルは77,620の乱用と272,214の非乱用テキストサンプルを含む多種多様な不均衡データセットに対して強い性能を示す。
- 参考スコア(独自算出の注目度): 0.9519647470165689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The digital age has expanded social media and online forums, allowing free expression for nearly 45% of the global population. Yet, it has also fueled online harassment, bullying, and harmful behaviors like hate speech and toxic comments across social networks, messaging apps, and gaming communities. Studies show 65% of parents notice hostile online behavior, and one-third of adolescents in mobile games experience bullying. A substantial volume of abusive content is generated and shared daily, not only on the surface web but also within dark web forums. Creators of abusive comments often employ specific words or coded phrases to evade detection and conceal their intentions. To address these challenges, we propose a hybrid deep learning model that integrates BERT, CNN, and LSTM architectures with a ReLU activation function to detect abusive language across multiple online platforms, including YouTube comments, online forum discussions, and dark web posts. The model demonstrates strong performance on a diverse and imbalanced dataset containing 77,620 abusive and 272,214 non-abusive text samples (ratio 1:3.5), achieving approximately 99% across evaluation metrics such as Precision, Recall, Accuracy, F1-score, and AUC. This approach effectively captures semantic, contextual, and sequential patterns in text, enabling robust detection of abusive content even in highly skewed datasets, as encountered in real-world scenarios.
- Abstract(参考訳): デジタル時代はソーシャルメディアやオンラインフォーラムを拡大し、世界の人口の45%近くが自由に表現できるようになった。
しかし、オンラインハラスメントやいじめ、ヘイトスピーチやソーシャルネットワーク、メッセージングアプリ、ゲームコミュニティの悪質なコメントなど、有害な行動にも力を入れている。
調査によると、親の65%が敵対的なオンライン行動に気づき、モバイルゲームでは3分の1の若者がいじめを経験している。
大量の乱用コンテンツが毎日生成され共有され、サーフェスウェブだけでなく、ダークウェブフォーラム内でも共有される。
虐待的なコメントの作成者は、しばしば特定の単語やコード化されたフレーズを使って、検出を回避し、意図を隠蔽する。
これらの課題に対処するために,BERT,CNN,LSTMアーキテクチャとReLUアクティベーション機能を統合したハイブリッドディープラーニングモデルを提案する。
このモデルは77,620の乱用と272,214の非乱用テキストサンプル(比1:3.5)を含む多種多様な不均衡データセットに対して強い性能を示し、精度、リコール、精度、F1スコア、AUCなどの評価指標で約99%を達成している。
このアプローチは、テキストのセマンティック、コンテキスト、シーケンシャルなパターンを効果的にキャプチャし、現実世界のシナリオで発生するように、高度に歪んだデータセットでも、乱用されたコンテンツの堅牢な検出を可能にする。
関連論文リスト
- A survey of textual cyber abuse detection using cutting-edge language models and large language models [0.0]
ソーシャルメディアで広く普及している様々な乱用形態を包括的に分析する。
我々は,言語モデル (LM) や大規模言語モデル (LLM) といった新興技術が,乱用コンテンツの検出と生成を両立させていることに注目した。
論文 参考訳(メタデータ) (2025-01-09T18:55:50Z) - Deep Learning Based Cyberbullying Detection in Bangla Language [0.0]
本研究は,ベンガルのサイバーいじめを識別する深層学習戦略を実証する。
2層双方向長短期メモリ(Bi-LSTM)モデルが構築され、サイバーいじめを識別する。
論文 参考訳(メタデータ) (2024-01-07T04:58:59Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Fine-Tuning Llama 2 Large Language Models for Detecting Online Sexual
Predatory Chats and Abusive Texts [2.406214748890827]
本稿では,Llama 2 7B-パラメーターモデルを用いて,オンライン性的捕食チャットと虐待言語の検出手法を提案する。
我々は、異なる大きさ、不均衡度、言語(英語、ローマ・ウルドゥー語、ウルドゥー語)のデータセットを用いてLLMを微調整する。
実験結果から,提案手法は3つの異なるデータセットに対して精度よく一貫した性能を示す。
論文 参考訳(メタデータ) (2023-08-28T16:18:50Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Detecting Harmful Online Conversational Content towards LGBTQIA+
Individuals [30.03410762695714]
この研究は現実世界のデータセットを導入し、有害なオンライン会話コンテンツの研究と理解を可能にします。
2つのベースライン機械学習モデルと、事前訓練された3つの大規模言語モデルを実装した。
以上の結果から,オンライン対LGBTQIA+会話コンテンツ検出タスクにおいて,大規模言語モデルが非常に有望な性能が得られることが確認された。
論文 参考訳(メタデータ) (2022-06-15T20:14:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。