論文の概要: The Use of a Large Language Model for Cyberbullying Detection
- arxiv url: http://arxiv.org/abs/2402.04088v1
- Date: Tue, 6 Feb 2024 15:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 14:20:44.523404
- Title: The Use of a Large Language Model for Cyberbullying Detection
- Title(参考訳): サイバーいじめ検出のための大規模言語モデルの利用
- Authors: Bayode Ogunleye, Babitha Dharmaraj
- Abstract要約: サイバーいじめ(CB)は、今日のサイバー世界で最も多い現象である。
これは市民の精神的および身体的健康に対する深刻な脅威である。
これにより、オンラインフォーラム、ブログ、ソーシャルメディアプラットフォームからいじめコンテンツを防ぐ堅牢なシステムを開発する必要が生じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The dominance of social media has added to the channels of bullying for
perpetrators. Unfortunately, cyberbullying (CB) is the most prevalent
phenomenon in todays cyber world, and is a severe threat to the mental and
physical health of citizens. This opens the need to develop a robust system to
prevent bullying content from online forums, blogs, and social media platforms
to manage the impact in our society. Several machine learning (ML) algorithms
have been proposed for this purpose. However, their performances are not
consistent due to high class imbalance and generalisation issues. In recent
years, large language models (LLMs) like BERT and RoBERTa have achieved
state-of-the-art (SOTA) results in several natural language processing (NLP)
tasks. Unfortunately, the LLMs have not been applied extensively for CB
detection. In our paper, we explored the use of these models for cyberbullying
(CB) detection. We have prepared a new dataset (D2) from existing studies
(Formspring and Twitter). Our experimental results for dataset D1 and D2 showed
that RoBERTa outperformed other models.
- Abstract(参考訳): ソーシャルメディアの優位は、加害者に対するいじめのチャンネルに追加された。
残念ながら、サイバーいじめ(cyberbullying, cb)は、今日のサイバー世界でもっとも一般的な現象であり、市民の精神的および身体的健康に対する深刻な脅威である。
これにより、オンラインフォーラム、ブログ、ソーシャルメディアプラットフォームからいじめコンテンツを防止し、社会への影響を管理する堅牢なシステムを開発する必要が生じる。
この目的のために、機械学習(ML)アルゴリズムがいくつか提案されている。
しかし、ハイクラス不均衡や一般化の問題から、パフォーマンスは一貫していない。
近年,BERT や RoBERTa のような大規模言語モデル (LLM) がSOTA (State-of-the-art) を達成し,自然言語処理 (NLP) タスクを実現している。
残念ながら、LSMはCB検出に広く適用されていない。
本稿では,これらのモデルを用いたサイバーブリュリング(CB)検出について検討した。
既存の研究(FormspringとTwitter)から新しいデータセット(D2)を用意しました。
データセットD1とD2の実験結果から,RoBERTaは他のモデルよりも優れていた。
関連論文リスト
- Explain Thyself Bully: Sentiment Aided Cyberbullying Detection with
Explanation [52.3781496277104]
さまざまなソーシャルメディアネットワークやオンラインコミュニケーションアプリの人気により、サイバーいじめが大きな問題になっている。
一般データ保護規則の「説明の権利」のような近年の法律は、解釈可能なモデルの開発に拍車をかけた。
我々は,コード混在言語からの自動サイバーバブル検出のための,mExCBと呼ばれる最初の解釈可能なマルチタスクモデルを開発した。
論文 参考訳(メタデータ) (2024-01-17T07:36:22Z) - Deep Learning Based Cyberbullying Detection in Bangla Language [0.0]
本研究は,ベンガルのサイバーいじめを識別する深層学習戦略を実証する。
2層双方向長短期メモリ(Bi-LSTM)モデルが構築され、サイバーいじめを識別する。
論文 参考訳(メタデータ) (2024-01-07T04:58:59Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Cyberbullying Detection for Low-resource Languages and Dialects: Review
of the State of the Art [0.9831489366502298]
この論文では、バングラ語、ヒンディー語、ドラヴィダ語など、23の低資源言語と方言がカバーされている。
本調査では,サイバーいじめの信頼性定義の欠如を含む,過去の研究における研究ギャップのいくつかを明らかにした。
これらの提案に基づき,バングラのチタゴニア方言におけるサイバーいじめデータセットを収集,公開する。
論文 参考訳(メタデータ) (2023-08-30T03:52:28Z) - Res-CNN-BiLSTM Network for overcoming Mental Health Disturbances caused
due to Cyberbullying through Social Media [3.1871776847712523]
サイバーいじめは宗教、倫理、年齢、ジェンダーに基づいて行われる。
ソーシャルメディアはメディアであり、テキスト形式で大量のデータを生成する。
論文 参考訳(メタデータ) (2022-04-20T18:40:39Z) - BERTuit: Understanding Spanish language in Twitter through a native
transformer [70.77033762320572]
bfBERTuitは、これまでスペイン語のために提案された大きなトランスフォーマーで、2億3000万のスペイン語ツイートの膨大なデータセットで事前トレーニングされている。
私たちのモチベーションは、スペイン語のTwitterをよりよく理解し、このソーシャルネットワークにフォーカスしたアプリケーションに利用するための強力なリソースを提供することです。
論文 参考訳(メタデータ) (2022-04-07T14:28:51Z) - Analysing Cyberbullying using Natural Language Processing by
Understanding Jargon in Social Media [4.932130498861987]
本稿では,さまざまなソーシャルメディアプラットフォームからのデータセットの組み合わせを用いて,バイナリ分類について検討する。
我々は,Bi-LSTM,GloVe,BERTなどの最先端モデルなど複数のモデルを用いて実験を行い,スラング悪用コーパスを導入して独自の前処理手法を適用した。
論文 参考訳(メタデータ) (2021-04-23T04:20:19Z) - hBert + BiasCorp -- Fighting Racism on the Web [58.768804813646334]
これはfox news、breitbartnews、youtubeの3つの特定のソースから139,090のコメントとニュースを含むデータセットです。
本研究では、hBERT を新しい Hopfield Layer を用いて、予め訓練された BERT モデルの特定の層を修正する。
開発者がwebアプリケーションでトレーニングされたモデルを利用できるようにするため、javascriptライブラリとchrome拡張アプリケーションもリリースしています。
論文 参考訳(メタデータ) (2021-04-06T02:17:20Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Aggressive, Repetitive, Intentional, Visible, and Imbalanced: Refining
Representations for Cyberbullying Classification [4.945634077636197]
本研究では,その社会的・言語的側面を表現するために,5つの明確な要因を用いて,サイバーいじめのニュアンスな問題を考察する。
これらの結果は、サイバーいじめを社会現象として表現し、モデル化することの重要性を示している。
論文 参考訳(メタデータ) (2020-04-04T00:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。