論文の概要: Context Matters: Incorporating Target Awareness in Conversational Abusive Language Detection
- arxiv url: http://arxiv.org/abs/2508.12828v1
- Date: Mon, 18 Aug 2025 11:12:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.257185
- Title: Context Matters: Incorporating Target Awareness in Conversational Abusive Language Detection
- Title(参考訳): 文脈的問題:会話的虐待言語検出における目標意識の導入
- Authors: Raneem Alharthi, Rajwa Alharthi, Aiqi Jiang, Arkaitz Zubiaga,
- Abstract要約: ソーシャルメディアにおけるこのような有害なコンテンツに対処する手段として、乱用言語検出がますます重要になっている。
本研究では,会話交換について検討し,相手の投稿に対して相手の投稿に返信する(親のつぶやき)。
親ツイートからコンテキストを活用することで、返信投稿が悪用されているかどうかを判断できますか?
- 参考スコア(独自算出の注目度): 7.323895449517353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abusive language detection has become an increasingly important task as a means to tackle this type of harmful content in social media. There has been a substantial body of research developing models for determining if a social media post is abusive or not; however, this research has primarily focused on exploiting social media posts individually, overlooking additional context that can be derived from surrounding posts. In this study, we look at conversational exchanges, where a user replies to an earlier post by another user (the parent tweet). We ask: does leveraging context from the parent tweet help determine if a reply post is abusive or not, and what are the features that contribute the most? We study a range of content-based and account-based features derived from the context, and compare this to the more widely studied approach of only looking at the features from the reply tweet. For a more generalizable study, we test four different classification models on a dataset made of conversational exchanges (parent-reply tweet pairs) with replies labeled as abusive or not. Our experiments show that incorporating contextual features leads to substantial improvements compared to the use of features derived from the reply tweet only, confirming the importance of leveraging context. We observe that, among the features under study, it is especially the content-based features (what is being posted) that contribute to the classification performance rather than account-based features (who is posting it). While using content-based features, it is best to combine a range of different features to ensure improved performance over being more selective and using fewer features. Our study provides insights into the development of contextualized abusive language detection models in realistic settings involving conversations.
- Abstract(参考訳): ソーシャルメディアにおけるこのような有害なコンテンツに対処する手段として、乱用言語検出がますます重要になっている。
ソーシャルメディアの投稿が悪用されているかどうかを判断するモデルの開発には、かなり多くの研究団体があるが、この研究は主にソーシャルメディアの投稿を個別に活用することに焦点を当てており、周囲の投稿から得られる追加の文脈を見越すことに重点を置いている。
本研究では,会話交換について検討し,相手の投稿に対して相手の投稿に返信する(親のつぶやき)。
親ツイートからコンテキストを活用することで、返信投稿が悪用されているかどうかを判断できますか?
本研究は、コンテキストから派生したコンテンツベースおよびアカウントベースの機能について検討し、返信ツイートからのみ機能を見るという、より広範に研究されているアプローチと比較する。
より一般化可能な研究として、会話交換(親対のツイート対)からなるデータセット上で、4つの異なる分類モデルをテストする。
実験の結果,文脈的特徴を取り入れることによって,応答ツイートのみから派生した特徴の利用に比べて大幅な改善が得られ,文脈の活用の重要性が確認された。
調査中の特徴のうち、特に、アカウントベースの特徴(投稿しているもの)よりも、分類性能に寄与するコンテンツベースの特徴(投稿されているもの)が注目されている。
コンテンツベースの機能を使っている間、より選択的で、より少ない機能を使用するよりも、パフォーマンスを向上させるために、さまざまな機能を組み合わせるのが最善です。
本研究は,会話を伴う現実的な環境下での文脈的乱用言語検出モデルの開発に関する知見を提供する。
関連論文リスト
- Will I Get Hate Speech Predicting the Volume of Abusive Replies before Posting in Social Media [0.0]
テキスト、テキストメタデータ、ツイートメタデータ、アカウント機能という4種類の機能を調べます。
これにより、ユーザやコンテンツが、虐待的な返信の数を予測するのにどの程度役立つかを理解するのに役立ちます。
私たちの目的の1つは、ツイートが受ける虐待的な反応の量が、ツイートの内容や、それを投稿するユーザのアイデンティティによって動機付けられる範囲を決定することです。
論文 参考訳(メタデータ) (2025-03-04T21:04:21Z) - VyAnG-Net: A Novel Multi-Modal Sarcasm Recognition Model by Uncovering Visual, Acoustic and Glossary Features [13.922091192207718]
サルカズム認識は、日常の対話に埋め込まれた隠された皮肉、批判、比喩的な情報を識別することを目的としている。
本稿では,軽量な奥行き注意モジュールと自己制御型ConvNetを組み合わせることで,視覚データの最も重要な特徴に集中する手法を提案する。
我々はまた、別のデータセットMUStARD++の見知らぬサンプルを用いて、VyAnG-Netの適応性をテストするために、クロスデータセット解析を行った。
論文 参考訳(メタデータ) (2024-08-05T15:36:52Z) - Paralinguistics-Enhanced Large Language Modeling of Spoken Dialogue [71.15186328127409]
パラリンGPT(Paralin GPT)
モデルは、シリアライズされたマルチタスクフレームワーク内の入力プロンプトとして、テキスト、音声埋め込み、およびパラ言語属性の会話コンテキストを取る。
音声対話データセットとして,感情ラベルをパラ言語属性として含むSwitchboard-1コーパスを利用する。
論文 参考訳(メタデータ) (2023-12-23T18:14:56Z) - Acoustic and linguistic representations for speech continuous emotion
recognition in call center conversations [2.0653090022137697]
本稿では,AlloSat corpus へのトランスファー学習の一形態として,事前学習した音声表現の利用について検討する。
実験により,事前学習した特徴を用いて得られた性能の大きな向上を確認した。
驚いたことに、言語内容が満足度予測の主要な要因であることは明らかでした。
論文 参考訳(メタデータ) (2023-10-06T10:22:51Z) - Enriching Abusive Language Detection with Community Context [0.3708656266586145]
叙述表現の使用は、良心的または活発な権限を与えることができる。
乱用検出のモデルは、これらの表現を軽蔑的で不注意に、疎外されたグループが持つ生産的な会話を検閲するものとして誤分類する。
本稿では,コミュニティの文脈が乱用言語検出における分類結果をどのように改善するかを強調した。
論文 参考訳(メタデータ) (2022-06-16T20:54:02Z) - Rumor Detection with Self-supervised Learning on Texts and Social Graph [101.94546286960642]
異種情報ソース上での自己教師型学習を対照的に提案し,それらの関係を明らかにするとともに,噂をよりよく特徴付ける。
我々はこの枠組みをSRD(Self-supervised Rumor Detection)と呼ぶ。
3つの実世界のデータセットに対する大規模な実験により、ソーシャルメディア上での噂の自動検出におけるSRDの有効性が検証された。
論文 参考訳(メタデータ) (2022-04-19T12:10:03Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - "To Target or Not to Target": Identification and Analysis of Abusive
Text Using Ensemble of Classifiers [18.053219155702465]
ソーシャルメディアプラットフォーム上での虐待的・憎悪的コンテンツを識別・分析するためのアンサンブル学習手法を提案する。
私たちの積み重ねられたアンサンブルは、3つの機械学習モデルで構成されており、言語のさまざまな側面をキャプチャし、不適切な言語に関する多様な一貫性のある洞察を提供する。
論文 参考訳(メタデータ) (2020-06-05T06:59:22Z) - Don't Judge an Object by Its Context: Learning to Overcome Contextual
Bias [113.44471186752018]
既存のモデルは、認識精度を向上させるために、オブジェクトとそのコンテキスト間の共起を利用することが多い。
この研究は、学習した特徴表現の堅牢性を改善するために、そのような文脈バイアスに対処することに焦点を当てている。
論文 参考訳(メタデータ) (2020-01-09T18:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。