論文の概要: Promoting Security and Trust on Social Networks: Explainable Cyberbullying Detection Using Large Language Models in a Stream-Based Machine Learning Framework
- arxiv url: http://arxiv.org/abs/2505.03746v1
- Date: Mon, 07 Apr 2025 15:57:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-11 11:26:45.192154
- Title: Promoting Security and Trust on Social Networks: Explainable Cyberbullying Detection Using Large Language Models in a Stream-Based Machine Learning Framework
- Title(参考訳): ソーシャルネットワークにおけるセキュリティと信頼の促進:ストリームベース機械学習フレームワークにおける大規模言語モデルを用いた説明可能なサイバーバブル検出
- Authors: Silvia García-Méndez, Francisco De Arriba-Pérez,
- Abstract要約: ソーシャルメディアプラットフォームは、いわゆるサイバーいじめと呼ばれるオンラインコミュニティでネガティブな行動を引き起こしている。
ストリームベース機械学習(ML)モデルと大規模言語モデル(LLMS)を用いたサイバーバブル検出のための革新的でリアルタイムなソリューションを提案する。
また, 実験結果から, 全評価指標の90%近くの性能を保証し, 文献における競合研究の成果を上回る結果を得た。
- 参考スコア(独自算出の注目度): 5.635300481123079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media platforms enable instant and ubiquitous connectivity and are essential to social interaction and communication in our technological society. Apart from its advantages, these platforms have given rise to negative behaviors in the online community, the so-called cyberbullying. Despite the many works involving generative Artificial Intelligence (AI) in the literature lately, there remain opportunities to study its performance apart from zero/few-shot learning strategies. Accordingly, we propose an innovative and real-time solution for cyberbullying detection that leverages stream-based Machine Learning (ML) models able to process the incoming samples incrementally and Large Language Models (LLMS) for feature engineering to address the evolving nature of abusive and hate speech online. An explainability dashboard is provided to promote the system's trustworthiness, reliability, and accountability. Results on experimental data report promising performance close to 90 % in all evaluation metrics and surpassing those obtained by competing works in the literature. Ultimately, our proposal contributes to the safety of online communities by timely detecting abusive behavior to prevent long-lasting harassment and reduce the negative consequences in society.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、インスタントかつユビキタスな接続を可能にし、我々の技術社会における社会的相互作用とコミュニケーションに不可欠である。
アドバンテージとは別に、これらのプラットフォームはオンラインコミュニティ、いわゆるサイバーいじめにおいてネガティブな行動を引き起こしている。
近年では、生成人工知能(AI)に関する多くの研究が文学で行われているが、ゼロショットの学習戦略とは別に、その性能を研究する機会は残されている。
そこで,我々は,入力サンプルを段階的に処理可能なストリームベース機械学習(ML)モデルと機能工学のための大規模言語モデル(LLMS)を活用して,乱用音声とヘイトスピーチの進化する性質に対処する,サイバーいじめ検出のための革新的なリアルタイムソリューションを提案する。
システムの信頼性、信頼性、説明責任を促進するために、説明責任ダッシュボードが提供される。
また, 実験結果から, 全評価指標の90%近くの性能を保証し, 文献における競合研究の成果を上回る結果を得た。
この提案は,長期にわたるハラスメントを防ぎ,社会のネガティブな結果を低減するために,虐待行為をタイムリーに検出することで,オンラインコミュニティの安全に寄与する。
関連論文リスト
- A survey of textual cyber abuse detection using cutting-edge language models and large language models [0.0]
ソーシャルメディアで広く普及している様々な乱用形態を包括的に分析する。
我々は,言語モデル (LM) や大規模言語モデル (LLM) といった新興技術が,乱用コンテンツの検出と生成を両立させていることに注目した。
論文 参考訳(メタデータ) (2025-01-09T18:55:50Z) - Socialized Learning: A Survey of the Paradigm Shift for Edge Intelligence in Networked Systems [62.252355444948904]
本稿では,エッジインテリジェンス(EI)と社会学習(SL)の統合に関する文献レビューの結果について述べる。
SLは、エージェントの協調能力と集団知性を増幅することを目的とした、社会的原則と行動に基づく学習パラダイムである。
ソーシャル化アーキテクチャ、ソーシャル化トレーニング、ソーシャル化推論の3つの統合コンポーネントについて詳しく検討し、その強みと弱点を分析した。
論文 参考訳(メタデータ) (2024-04-20T11:07:29Z) - SELFI: Autonomous Self-Improvement with Reinforcement Learning for Social Navigation [54.97931304488993]
体験と対話し、改善する自己改善ロボットは、ロボットシステムの現実的な展開の鍵となる。
本研究では,オンラインロボット体験を活用したオンライン学習手法であるSELFIを提案する。
本研究では, 衝突回避の観点からの改善と, より社会的に順応する行動について報告する。
論文 参考訳(メタデータ) (2024-03-01T21:27:03Z) - Analysis of the User Perception of Chatbots in Education Using A Partial
Least Squares Structural Equation Modeling Approach [0.0]
オプティミズム、イノベーティブネス、不快感、不安、透明性、倫理、相互作用、エンゲージメント、正確さといった主要な行動関連側面について研究した。
その結果、最適性と革新性は、知覚的使用覚(PEOU)と知覚的有用性(PU)に正の相関があることが判明した。
論文 参考訳(メタデータ) (2023-11-07T00:44:56Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Towards A Multi-agent System for Online Hate Speech Detection [11.843799418046666]
本論文では,TwitterやFacebookなどのオンラインソーシャルメディアプラットフォームにおけるヘイトスピーチの存在を検出するマルチエージェントシステムを提案する。
テキスト処理とインエイジ処理のチャネルをコーディネートする深層学習技術を用いた新しいフレームワークを紹介します。
論文 参考訳(メタデータ) (2021-05-03T19:06:42Z) - Cyberbullying Detection with Fairness Constraints [0.0]
フェアネス制約を適用でき、異なるデータセットでアプローチを検証するモデルトレーニングスキームを提案する。
我々の研究は、サイバー社会の健康に対する、偏見のない、透明で倫理的な機械学習ソリューションの追求に寄与していると信じています。
論文 参考訳(メタデータ) (2020-05-09T13:04:26Z) - Aggressive, Repetitive, Intentional, Visible, and Imbalanced: Refining
Representations for Cyberbullying Classification [4.945634077636197]
本研究では,その社会的・言語的側面を表現するために,5つの明確な要因を用いて,サイバーいじめのニュアンスな問題を考察する。
これらの結果は、サイバーいじめを社会現象として表現し、モデル化することの重要性を示している。
論文 参考訳(メタデータ) (2020-04-04T00:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。