論文の概要: Cyberbullying Detection via Aggression-Enhanced Prompting
- arxiv url: http://arxiv.org/abs/2508.06360v1
- Date: Fri, 08 Aug 2025 14:46:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.267541
- Title: Cyberbullying Detection via Aggression-Enhanced Prompting
- Title(参考訳): 凝集促進型プロンプティングによるサイバブリング検出
- Authors: Aisha Saeid, Anu Sabu, Girish A. Koushik, Ferrante Neri, Diptesh Kanojia,
- Abstract要約: 本研究では,大規模言語モデル(LLM)のサイバーバブル検出における一般化と性能を高めるため,統合トレーニングフレームワークにおける補助的タスクとしての攻撃検出の統合について検討した。
予備的な結果は、濃縮されたプロンプトパイプラインが標準のLoRA微調整よりも一貫して優れていることを示している。
本研究は、ソーシャルネットワーク上での安全クリティカルなアプリケーションのためのLCMの一般化を改善するため、攻撃検出などの補助的タスクの可能性を強調した。
- 参考スコア(独自算出の注目度): 5.79178999842906
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Detecting cyberbullying on social media remains a critical challenge due to its subtle and varied expressions. This study investigates whether integrating aggression detection as an auxiliary task within a unified training framework can enhance the generalisation and performance of large language models (LLMs) in cyberbullying detection. Experiments are conducted on five aggression datasets and one cyberbullying dataset using instruction-tuned LLMs. We evaluated multiple strategies: zero-shot, few-shot, independent LoRA fine-tuning, and multi-task learning (MTL). Given the inconsistent results of MTL, we propose an enriched prompt pipeline approach in which aggression predictions are embedded into cyberbullying detection prompts to provide contextual augmentation. Preliminary results show that the enriched prompt pipeline consistently outperforms standard LoRA fine-tuning, indicating that aggression-informed context significantly boosts cyberbullying detection. This study highlights the potential of auxiliary tasks, such as aggression detection, to improve the generalisation of LLMs for safety-critical applications on social networks.
- Abstract(参考訳): ソーシャルメディア上でのサイバーいじめの検出は、微妙で多様な表現のため、依然として重要な課題である。
本研究では,大規模言語モデル(LLM)のサイバーバブル検出における一般化と性能を高めるため,統合トレーニングフレームワークにおける補助的タスクとしての攻撃検出の統合について検討した。
5つの攻撃的データセットと1つのサイバーいじめ的データセットに対して,命令調整LDMを用いて実験を行った。
ゼロショット,少数ショット,独立したLoRAファインチューニング,マルチタスク学習(MTL)という,複数の戦略を評価した。
MTLの一貫性のない結果から,攻撃予測をサイバーブロッキング検出プロンプトに埋め込んでコンテキスト拡張を実現する,リッチなプロンプトパイプライン手法を提案する。
予備的な結果は、濃縮されたプロンプトパイプラインが標準のLoRA微調整より一貫して優れており、攻撃的インフォームドコンテキストがサイバーいじめの検出を著しく促進していることを示している。
本研究は、ソーシャルネットワーク上での安全クリティカルなアプリケーションのためのLCMの一般化を改善するため、攻撃検出などの補助的タスクの可能性を強調した。
関連論文リスト
- Knowledge Transfer from LLMs to Provenance Analysis: A Semantic-Augmented Method for APT Detection [1.2571354974258824]
本稿では,大規模言語モデル (LLM) をプロビタンスに基づく脅威検出に活用するための新しい戦略を提案する。
LLMは、証明データの解釈、システムコールの知識、ソフトウェアアイデンティティ、アプリケーション実行コンテキストの高レベルな理解など、さらなる詳細を提供する。
本評価では,教師付き脅威検出の精度は99.0%であり,半教師付き異常検出の精度は96.9%である。
論文 参考訳(メタデータ) (2025-03-24T03:51:09Z) - Deep Learning Approaches for Detecting Adversarial Cyberbullying and Hate Speech in Social Networks [0.0]
本稿では、ソーシャルネットワークサイトテキストデータ中の敵対的攻撃コンテンツにおけるサイバーいじめの検出、特にヘイトスピーチを強調することに焦点を当てる。
100の固定エポックを持つLSTMモデルは、高い精度、精度、リコール、F1スコア、AUC-ROCスコアが87.57%、88.73%、88.15%、91%の顕著な性能を示した。
論文 参考訳(メタデータ) (2024-05-30T21:44:15Z) - Can Active Sampling Reduce Causal Confusion in Offline Reinforcement
Learning? [58.942118128503104]
因果的混乱(英: Causal confusion)とは、エージェントがデータ中の不完全な急激な相関を反映するポリシーを学ぶ現象である。
この現象は特にロボット工学などの領域で顕著である。
本稿では,オフライン強化学習における因果的混乱について検討する。
論文 参考訳(メタデータ) (2023-12-28T17:54:56Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Hear No Evil: Towards Adversarial Robustness of Automatic Speech
Recognition via Multi-Task Learning [13.735883484044166]
本研究では,マルチタスク学習が音声領域におけるASRモデルの対角的ロバスト性に及ぼす影響について検討する。
提案手法は,17.25から59.90までの敵目標WERにおいて,絶対的な改善が見られた。
我々の研究は、ASRのマルチタスク学習による敵の堅牢性向上を明らかにする最初の詳細な研究である。
論文 参考訳(メタデータ) (2022-04-05T17:40:19Z) - Behaviour-Diverse Automatic Penetration Testing: A Curiosity-Driven
Multi-Objective Deep Reinforcement Learning Approach [3.5071575478443435]
侵入テストは、実際のアクティブな敵をエミュレートすることで、ターゲットネットワークのセキュリティを評価する上で重要な役割を果たす。
深層強化学習(Deep Reinforcement Learning)は,浸透テストのプロセスを自動化するための,有望なソリューションだと考えられている。
我々は,チェビシェフ分解批判者に対して,侵入試験における異なる目的のバランスをとる多様な敵戦略を見出すことを提案する。
論文 参考訳(メタデータ) (2022-02-22T02:34:16Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Characterizing the adversarial vulnerability of speech self-supervised
learning [95.03389072594243]
我々は,ゼロ知識とリミテッド知識の両方の敵からの攻撃の下で,そのようなパラダイムの敵対的脆弱性を調査するための最初の試みを行う。
実験結果から, SUPERB が提案するパラダイムは, 限られた知識を持つ敵に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-11-08T08:44:04Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。