論文の概要: Characterization of Political Polarized Users Attacked by Language Toxicity on Twitter
- arxiv url: http://arxiv.org/abs/2407.12471v1
- Date: Wed, 17 Jul 2024 10:49:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 17:27:45.624773
- Title: Characterization of Political Polarized Users Attacked by Language Toxicity on Twitter
- Title(参考訳): Twitter上での言語毒性による政治的偏在化ユーザの特性評価
- Authors: Wentao Xu,
- Abstract要約: 本研究は,左,右,センター利用者の言語毒性フローを初めて調査することを目的とする。
5億件以上のTwitter投稿が調査された。
その結果、左派ユーザーは右派やセンター派よりもはるかに有毒な回答が得られた。
- 参考スコア(独自算出の注目度): 3.0367864044156088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the dynamics of language toxicity on social media is important for us to investigate the propagation of misinformation and the development of echo chambers for political scenarios such as U.S. presidential elections. Recent research has used large-scale data to investigate the dynamics across social media platforms. However, research on the toxicity dynamics is not enough. This study aims to provide a first exploration of the potential language toxicity flow among Left, Right and Center users. Specifically, we aim to examine whether Left users were easier to be attacked by language toxicity. In this study, more than 500M Twitter posts were examined. It was discovered that Left users received much more toxic replies than Right and Center users.
- Abstract(参考訳): ソーシャルメディアにおける言語毒性のダイナミクスを理解することは、米国大統領選挙などの政治シナリオにおいて、誤情報の伝播とエコーチャンバーの開発を調査する上で重要である。
近年の研究では、ソーシャルメディアプラットフォーム間のダイナミクスを調査するために大規模なデータを用いている。
しかし、毒性力学の研究は不十分である。
本研究は,左,右,センター利用者間の潜在的言語毒性フローを初めて調査することを目的とする。
具体的には,左ユーザが言語毒性により攻撃されやすいかを検討することを目的とする。
本研究では,5億件以上のTwitter投稿が調査された。
その結果、左派ユーザーは右派やセンター派よりもはるかに有毒な回答が得られた。
関連論文リスト
- Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Twits, Toxic Tweets, and Tribal Tendencies: Trends in Politically Polarized Posts on Twitter [5.161088104035108]
個人レベルでの毒性と,Twitter/X上でのトピックレベルに寄与するパーシスタンスと感情分極が果たす役割について検討する。
43,151人のTwitter/Xユーザーから8960万のツイートを収集した後、パーティショニングを含むいくつかのアカウントレベルの特徴が、ユーザーが有害コンテンツを投稿する頻度を予測するかを決定する。
論文 参考訳(メタデータ) (2023-07-19T17:24:47Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - The Structure of Toxic Conversations on Twitter [10.983958397797847]
Twitter上での会話における構造と毒性の関係について検討した。
個人レベルでは、毒性は多くの低レベルから中程度の有害なユーザーに分散している。
グループレベルでは、有害な会話はより大きく、より広く、より深い応答木を持つ傾向にある。
論文 参考訳(メタデータ) (2021-05-25T01:18:02Z) - Toxic Language Detection in Social Media for Brazilian Portuguese: New
Dataset and Multilingual Analysis [4.251937086394346]
最先端のBERTモデルでは,バイナリケースのモノリンガルデータを用いて76%のマクロF1スコアを達成できた。
より正確なモデルを作成するためには,大規模なモノリンガルデータが依然として必要であることを示す。
論文 参考訳(メタデータ) (2020-10-09T13:05:19Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z) - Breaking the Communities: Characterizing community changing users using
text mining and graph machine learning on Twitter [0.0]
自然言語処理技術とグラフ機械学習アルゴリズムを用いて,Twitter上でコミュニティを壊すユーザを調査した。
我々は150万人のユーザーから900万のTwitterメッセージを収集し、リツイートネットワークを構築した。
コミュニティブレーカー」を検出するソーシャルメディアユーザ分類のための機械学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-24T23:44:51Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。