論文の概要: Joint Modelling of Emotion and Abusive Language Detection
- arxiv url: http://arxiv.org/abs/2005.14028v1
- Date: Thu, 28 May 2020 14:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 04:35:29.876815
- Title: Joint Modelling of Emotion and Abusive Language Detection
- Title(参考訳): 感情と虐待言語検出の連成モデリング
- Authors: Santhosh Rajamanickam, Pushkar Mishra, Helen Yannakoudakis, Ekaterina
Shutova
- Abstract要約: マルチタスク学習フレームワークを用いて,感情と虐待的言語検出の最初のジョイントモデルを提案する。
その結果、感情的特徴を取り入れることで、データセット間での悪用検出性能が大幅に向上することが示された。
- 参考スコア(独自算出の注目度): 26.18171134454037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of online communication platforms has been accompanied by some
undesirable effects, such as the proliferation of aggressive and abusive
behaviour online. Aiming to tackle this problem, the natural language
processing (NLP) community has experimented with a range of techniques for
abuse detection. While achieving substantial success, these methods have so far
only focused on modelling the linguistic properties of the comments and the
online communities of users, disregarding the emotional state of the users and
how this might affect their language. The latter is, however, inextricably
linked to abusive behaviour. In this paper, we present the first joint model of
emotion and abusive language detection, experimenting in a multi-task learning
framework that allows one task to inform the other. Our results demonstrate
that incorporating affective features leads to significant improvements in
abuse detection performance across datasets.
- Abstract(参考訳): オンラインコミュニケーションプラットフォームの台頭には、攻撃的で虐待的な行動のオンライン化など、望ましくない効果が伴っている。
この問題に対処するために、自然言語処理(NLP)コミュニティは、乱用検出のための様々なテクニックを実験してきた。
これまでのところ、これらの手法は、コメントの言語特性とユーザのオンラインコミュニティをモデル化することだけに重点を置いており、ユーザの感情状態やそれが言語に与える影響を無視している。
しかし後者は、虐待行為と密接な関係がある。
本稿では,感情と虐待的言語検出の最初のジョイントモデルを提案し,一方のタスクが他方のタスクに通知できるマルチタスク学習フレームワークで実験を行った。
その結果,感情的機能の導入により,データセット全体の乱用検出性能が大幅に向上することが示された。
関連論文リスト
- A survey of textual cyber abuse detection using cutting-edge language models and large language models [0.0]
ソーシャルメディアで広く普及している様々な乱用形態を包括的に分析する。
我々は,言語モデル (LM) や大規模言語モデル (LLM) といった新興技術が,乱用コンテンツの検出と生成を両立させていることに注目した。
論文 参考訳(メタデータ) (2025-01-09T18:55:50Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - Fine-Tuning Llama 2 Large Language Models for Detecting Online Sexual
Predatory Chats and Abusive Texts [2.406214748890827]
本稿では,Llama 2 7B-パラメーターモデルを用いて,オンライン性的捕食チャットと虐待言語の検出手法を提案する。
我々は、異なる大きさ、不均衡度、言語(英語、ローマ・ウルドゥー語、ウルドゥー語)のデータセットを用いてLLMを微調整する。
実験結果から,提案手法は3つの異なるデータセットに対して精度よく一貫した性能を示す。
論文 参考訳(メタデータ) (2023-08-28T16:18:50Z) - Hate Speech and Offensive Language Detection using an Emotion-aware
Shared Encoder [1.8734449181723825]
ヘイトスピーチと攻撃的言語検出に関する既存の研究は、事前学習されたトランスフォーマーモデルに基づいて有望な結果をもたらす。
本稿では,他コーパスから抽出した外的感情特徴を組み合わせたマルチタスク共同学習手法を提案する。
以上の結果から,感情的な知識が,データセット間のヘイトスピーチや攻撃的言語をより確実に識別する上で有効であることが示唆された。
論文 参考訳(メタデータ) (2023-02-17T09:31:06Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Enriching Abusive Language Detection with Community Context [0.3708656266586145]
叙述表現の使用は、良心的または活発な権限を与えることができる。
乱用検出のモデルは、これらの表現を軽蔑的で不注意に、疎外されたグループが持つ生産的な会話を検閲するものとして誤分類する。
本稿では,コミュニティの文脈が乱用言語検出における分類結果をどのように改善するかを強調した。
論文 参考訳(メタデータ) (2022-06-16T20:54:02Z) - A New Generation of Perspective API: Efficient Multilingual
Character-level Transformers [66.9176610388952]
Google JigsawのAspective APIの次期バージョンの基礎を提示する。
このアプローチの中心は、単一の多言語トークンフリーなCharformerモデルである。
静的な語彙を強制することで、さまざまな設定で柔軟性が得られます。
論文 参考訳(メタデータ) (2022-02-22T20:55:31Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - The User behind the Abuse: A Position on Ethics and Explainability [25.791014642037585]
ユーザとオンラインコミュニティのモデリングが乱用検知に果たす役割について論じる。
その後、ユーザー情報とコミュニティ情報を取り入れる倫理的課題を探求します。
説明可能な方法が示すべき特性について提案する。
論文 参考訳(メタデータ) (2021-03-31T16:20:37Z) - On Negative Interference in Multilingual Models: Findings and A
Meta-Learning Treatment [59.995385574274785]
従来の信念に反して、負の干渉は低リソース言語にも影響を及ぼすことを示す。
メタ学習アルゴリズムは、より優れた言語間変換性を得、負の干渉を軽減する。
論文 参考訳(メタデータ) (2020-10-06T20:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。