論文の概要: Will I Get Hate Speech Predicting the Volume of Abusive Replies before Posting in Social Media
- arxiv url: http://arxiv.org/abs/2503.03005v1
- Date: Tue, 04 Mar 2025 21:04:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:52:45.342078
- Title: Will I Get Hate Speech Predicting the Volume of Abusive Replies before Posting in Social Media
- Title(参考訳): ソーシャルメディアに投稿する前に、乱暴な返信の量を予測するスピーチを嫌うか?
- Authors: Raneem Alharthia, Rajwa Alharthib, Ravi Shekharc, Aiqi Jiangd, Arkaitz Zubiagaa,
- Abstract要約: テキスト、テキストメタデータ、ツイートメタデータ、アカウント機能という4種類の機能を調べます。
これにより、ユーザやコンテンツが、虐待的な返信の数を予測するのにどの程度役立つかを理解するのに役立ちます。
私たちの目的の1つは、ツイートが受ける虐待的な反応の量が、ツイートの内容や、それを投稿するユーザのアイデンティティによって動機付けられる範囲を決定することです。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Despite the growing body of research tackling offensive language in social media, this research is predominantly reactive, determining if content already posted in social media is abusive. There is a gap in predictive approaches, which we address in our study by enabling to predict the volume of abusive replies a tweet will receive after being posted. We formulate the problem from the perspective of a social media user asking: ``if I post a certain message on social media, is it possible to predict the volume of abusive replies it might receive?'' We look at four types of features, namely text, text metadata, tweet metadata, and account features, which also help us understand the extent to which the user or the content helps predict the number of abusive replies. This, in turn, helps us develop a model to support social media users in finding the best way to post content. One of our objectives is also to determine the extent to which the volume of abusive replies that a tweet will get are motivated by the content of the tweet or by the identity of the user posting it. Our study finds that one can build a model that performs competitively by developing a comprehensive set of features derived from the content of the message that is going to be posted. In addition, our study suggests that features derived from the user's identity do not impact model performance, hence suggesting that it is especially the content of a post that triggers abusive replies rather than who the user is.
- Abstract(参考訳): ソーシャルメディアで攻撃的な言葉に対処する研究が増えているにもかかわらず、この研究は主に反応し、すでにソーシャルメディアに投稿されているコンテンツが悪用されているかどうかを判断する。
投稿後、ツイートが受ける虐待的回答の量を予測することによって、我々の研究で対処する予測アプローチにはギャップがある。
ソーシャルメディア利用者の視点では、「もし私がソーシャルメディアに特定のメッセージを投稿すれば、それが受けるかもしれない虐待的な返信の量を予測できるだろうか?」と質問する。「テキスト、テキストメタデータ、ツイートメタデータ、アカウント機能という4種類の機能を見て、ユーザーやコンテンツが虐待的な返信の数を予測するのにどれだけ役立つかを理解するのに役立つ。
こうすることで、ソーシャルメディアユーザーがコンテンツを投稿する最良の方法を見つけるためのモデルの開発に役立ちます。
私たちの目的の1つは、ツイートが受ける虐待的な反応の量が、ツイートの内容や、それを投稿するユーザのアイデンティティによって動機付けられるかどうかを判断することである。
本研究は、投稿されるメッセージの内容から派生した、包括的な機能セットを開発することで、競争力のあるモデルを構築することができることを示す。
また,本研究では,ユーザの同一性から派生した特徴がモデル性能に影響を与えないことを示唆する。
関連論文リスト
- Limits to Predicting Online Speech Using Large Language Models [20.215414802169967]
最近の理論的結果は、ユーザのソーシャルサークルからの投稿は、ユーザの過去の投稿と同じくらい、ユーザの将来の投稿を予測可能であることを示唆している。
我々は予測可能性について、モデルの不確実性の尺度として定義する。
サイズが15億から70億の4つの大きな言語モデルにまたがって、ユーザの投稿を仲間の投稿から予測すると、パフォーマンスが低下することがわかった。
論文 参考訳(メタデータ) (2024-07-08T09:50:49Z) - Analyzing Toxicity in Deep Conversations: A Reddit Case Study [0.0]
この研究は、公開会話設定における毒性に関するユーザがどのように振る舞うかを理解するために、ツリーベースのアプローチを採用する。
Redditの8つのコミュニティから上位100件の投稿とコメントのセクションを収集し、100万件以上の回答を得た。
有毒なコメントは、その後の有毒なコメントがオンライン会話で生み出される可能性を高める。
論文 参考訳(メタデータ) (2024-04-11T16:10:44Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Detecting and Reasoning of Deleted Tweets before they are Posted [5.300190188468289]
削除されたツイート、特にアラビアの文脈内で識別し、それに対応するきめ細かい偽情報カテゴリにラベル付けします。
次に、削除されるツイートの可能性を予測できるモデルを開発します。
論文 参考訳(メタデータ) (2023-05-05T08:25:07Z) - Depression detection in social media posts using affective and social
norm features [84.12658971655253]
ソーシャルメディア投稿からの抑うつ検出のための奥深いアーキテクチャを提案する。
我々は、後期融合方式を用いて、ポストとワードの敬称と道徳的特徴をアーキテクチャに組み込んだ。
提案された機能を含めると、両方の設定で最先端の結果が得られます。
論文 参考訳(メタデータ) (2023-03-24T21:26:27Z) - ViralBERT: A User Focused BERT-Based Approach to Virality Prediction [11.992815669875924]
本稿では、コンテンツとユーザベースの機能を用いて、ツイートのバイラル性を予測できるViralBERTを提案する。
ハッシュタグやフォロワー数などの数値的特徴を合成してテキストをツイートし、2つのBERTモジュールを利用する手法を用いる。
ViralBERTをトレーニングするために330kのツイートのデータセットを収集し、この分野での現在の研究からベースラインを使用して、モデルの有効性を検証する。
論文 参考訳(メタデータ) (2022-05-17T21:40:24Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - AbuseAnalyzer: Abuse Detection, Severity and Target Prediction for Gab
Posts [19.32095911241636]
本稿では, 虐待, 重大さ, 虐待行為のターゲットの観点から, オンライン虐待に着目した 7601 投稿を Gab から提供した。
また,これらの課題に対処するシステムを提案し,乱用の有無を80%,虐待対象予測を82%,虐待重症度予測を65%とした。
論文 参考訳(メタデータ) (2020-09-30T18:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。