論文の概要: A Trustable LSTM-Autoencoder Network for Cyberbullying Detection on
Social Media Using Synthetic Data
- arxiv url: http://arxiv.org/abs/2308.09722v1
- Date: Tue, 15 Aug 2023 17:20:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-27 05:17:20.789594
- Title: A Trustable LSTM-Autoencoder Network for Cyberbullying Detection on
Social Media Using Synthetic Data
- Title(参考訳): 合成データを用いたソーシャルメディア上でのサイバーバブル検出のための信頼できるLSTM-Autoencoderネットワーク
- Authors: Mst Shapna Akter, Hossain Shahriar, Alfredo Cuzzocrea
- Abstract要約: 本稿では,ソーシャルメディア上でのサイバーバブル検出のための信頼性の高いLSTM-Autoencoderネットワークを提案する。
我々は、機械翻訳データを生成することにより、データの可用性の難しさに対処する最先端の手法を実証した。
我々はヒンディー語、バングラ語、英語のデータセットに対するアグレッシブなコメントを実験的に同定した。
- 参考スコア(独自算出の注目度): 2.378735224874938
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media cyberbullying has a detrimental effect on human life. As online
social networking grows daily, the amount of hate speech also increases. Such
terrible content can cause depression and actions related to suicide. This
paper proposes a trustable LSTM-Autoencoder Network for cyberbullying detection
on social media using synthetic data. We have demonstrated a cutting-edge
method to address data availability difficulties by producing
machine-translated data. However, several languages such as Hindi and Bangla
still lack adequate investigations due to a lack of datasets. We carried out
experimental identification of aggressive comments on Hindi, Bangla, and
English datasets using the proposed model and traditional models, including
Long Short-Term Memory (LSTM), Bidirectional Long Short-Term Memory (BiLSTM),
LSTM-Autoencoder, Word2vec, Bidirectional Encoder Representations from
Transformers (BERT), and Generative Pre-trained Transformer 2 (GPT-2) models.
We employed evaluation metrics such as f1-score, accuracy, precision, and
recall to assess the models performance. Our proposed model outperformed all
the models on all datasets, achieving the highest accuracy of 95%. Our model
achieves state-of-the-art results among all the previous works on the dataset
we used in this paper.
- Abstract(参考訳): ソーシャルメディアのサイバーいじめは人間の生活に有害な影響を及ぼす。
オンラインソーシャルネットワークが日々成長するにつれて、ヘイトスピーチの量も増加する。
このような恐ろしい内容は、うつ病や自殺に関連する行動を引き起こす可能性がある。
本稿では,合成データを用いたソーシャルメディア上でのサイバーバブル検出のための信頼性の高いLSTM-Autoencoderネットワークを提案する。
機械翻訳データ生成によるデータ可用性問題に対処するための最先端手法を実証した。
しかし、ヒンディー語やバングラ語などいくつかの言語は、データセットの欠如による十分な調査が不足している。
提案したモデルと従来のモデルを用いて,ヒンディー語,バングラ語,英語のデータセットに対するアグレッシブなコメントを実験的に同定した。例えば,Long Short-Term Memory (LSTM), Bidirectional Long Short-Term Memory (BiLSTM), LSTM-Autoencoder, Word2vec, Bidirectional Encoder Representations from Transformers (BERT), Generative Pre-trained Transformer 2 (GPT-2) モデルである。
モデルの性能を評価するために,f1-score,精度,精度,リコールなどの評価指標を用いた。
提案モデルでは,全データセットのモデルに比較して95%の精度を達成した。
このモデルは,我々が本論文で使用したデータセット上で,これまでのすべての作業の中で最先端の結果を得る。
関連論文リスト
- Towards Characterizing Cyber Networks with Large Language Models [0.0]
我々は,Cyber Log Embeddings Model (CLEM)と呼ばれるプロトタイプツールを用いて,サイバーデータの潜在的特徴を用いて異常を発見する。
CLEMは、現実世界のプロダクションネットワークとIoT(Internet of Things)のサイバーセキュリティテストベッドの両方からのZeekネットワークトラフィックログに基づいてトレーニングされた。
論文 参考訳(メタデータ) (2024-11-11T16:09:13Z) - SimpleSpeech 2: Towards Simple and Efficient Text-to-Speech with Flow-based Scalar Latent Transformer Diffusion Models [64.40250409933752]
我々は、SimpleSpeech 2.0と呼ばれるシンプルで効率的な非自己回帰(NAR)TSフレームワークを実装することで、過去の出版物の上に構築した。
SimpleSpeech 2は、自己回帰(AR)法と非自己回帰(NAR)法の両方の長所を効果的に組み合わせている。
我々は,従来の作業と他の大規模TSモデル(SOTA)と比較して,生成性能と生成速度が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-08-25T17:07:39Z) - Beyond Model Collapse: Scaling Up with Synthesized Data Requires Verification [11.6055501181235]
モデル崩壊防止のための合成データに対する検証手法について検討する。
検証器は、たとえ不完全なものであっても、モデル崩壊を防ぐために実際に活用できることが示される。
論文 参考訳(メタデータ) (2024-06-11T17:46:16Z) - Deep Learning-Based Cyber-Attack Detection Model for Smart Grids [6.642400003243118]
監視制御とデータ取得(SCADA)により、受信した負荷データに対するデータ完全性サイバー攻撃(DIA)を防止するために、人工知能に基づく新しいサイバー攻撃検出モデルを開発した。
提案モデルでは、まず回帰モデルを用いて負荷データを予測し、処理後、教師なし学習法を用いて処理データをクラスタ化する。
提案したEE-BiLSTM法は,他の2つの手法と比較して,より堅牢かつ高精度に動作可能である。
論文 参考訳(メタデータ) (2023-12-14T10:54:04Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - The Curse of Recursion: Training on Generated Data Makes Models Forget [70.02793975243212]
大規模言語モデル(LLM)が存続し、オンラインテキストと画像のエコシステム全体に劇的な変化をもたらすだろう。
トレーニングにおけるモデル生成コンテンツの使用は、元のコンテンツ分布の尾部が消える結果のモデルに不可逆的な欠陥を引き起こす。
論文 参考訳(メタデータ) (2023-05-27T15:10:41Z) - Deep Learning Approach for Classifying the Aggressive Comments on Social
Media: Machine Translated Data Vs Real Life Data [15.813222387547357]
本稿では特に,アグレッシブコメントを検出するために,ヒンディー語,バングラ語,英語のデータセットについて研究した。
機械翻訳された英語データセットを,Long Short term memory model (LSTM), Bidirectional Long-Short term memory model (BiLSTM), word2vec, Bidirectional Representations from Transformers (BERT), Generative Pre-trained Transformer (GPT-2) などのモデルを用いて解析した。
ノイズを含まない生データや、特定のノイズ量を含む半ノイズデータなど、さらに2つのデータセットを用いてノイズデータを使用することの性能を比較した。
論文 参考訳(メタデータ) (2023-03-13T21:43:08Z) - Improving Classifier Training Efficiency for Automatic Cyberbullying
Detection with Feature Density [58.64907136562178]
言語支援の異なる特徴前処理手法を用いて特徴密度(FD)の有効性を検討した。
データセットの複雑さを推定することで、必要な実験の数を削減できると仮定する。
データセットの言語的複雑さの違いにより、言語的に支援された単語前処理の有効性を議論することが可能になる。
論文 参考訳(メタデータ) (2021-11-02T15:48:28Z) - Offensive Language and Hate Speech Detection with Deep Learning and
Transfer Learning [1.77356577919977]
我々は、ツイートを自動的に3つのクラスに分類するアプローチを提案する。
我々は、テキスト分類、感情チェック、テキストデータ拡張を含む主要な機能を含むクラスモジュールを作成する。
論文 参考訳(メタデータ) (2021-08-06T20:59:47Z) - Decoupling Pronunciation and Language for End-to-end Code-switching
Automatic Speech Recognition [66.47000813920617]
本稿では,モノリンガルペアデータと未ペアテキストデータを利用するデカップリング変換器モデルを提案する。
モデルはA2P(Audio-to-phoneme)ネットワークとP2T(P2T)ネットワークの2つの部分に分けられる。
モノリンガルデータと未ペアテキストデータを使用することで、分離されたトランスフォーマーモデルは、E2Eモデルのコードスイッチングペアリングトレーニングデータへの高依存性を低減する。
論文 参考訳(メタデータ) (2020-10-28T07:46:15Z) - Depth-Adaptive Graph Recurrent Network for Text Classification [71.20237659479703]
S-LSTM(Sentence-State LSTM)は、高効率なグラフリカレントネットワークである。
そこで本研究では,S-LSTMの深度適応機構を提案する。
論文 参考訳(メタデータ) (2020-02-29T03:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。