論文の概要: Sub-Standards and Mal-Practices: Misinformation's Role in Insular,
Polarized, and Toxic Interactions
- arxiv url: http://arxiv.org/abs/2301.11486v1
- Date: Fri, 27 Jan 2023 01:32:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:54:02.473873
- Title: Sub-Standards and Mal-Practices: Misinformation's Role in Insular,
Polarized, and Toxic Interactions
- Title(参考訳): サブ・スタンダードとマル・プラクティス:不規則・偏極・毒性相互作用における誤情報の役割
- Authors: Hans W. A. Hanley, Zakir Durumeric
- Abstract要約: ソーシャルメディアプラットフォームRedditにおける、政治的悪質や毒性の引き金となる偽情報の役割について検討する。
誤報記事に対するRedditのコメントは、本物のニュース記事に対するコメントよりも71.4%が有毒である可能性が高い。
- 参考スコア(独自算出の注目度): 4.357949911556638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How do users and communities respond to news from unreliable sources? How
does news from these sources change online conversations? In this work, we
examine the role of misinformation in sparking political incivility and
toxicity on the social media platform Reddit. Utilizing the Google Jigsaw
Perspective API to identify toxicity, hate speech, and other forms of
incivility, we find that Reddit comments posted in response to misinformation
articles are 71.4% more likely to be toxic than comments responding to
authentic news articles. Identifying specific instances of commenters'
incivility and utilizing an exponential random graph model, we then show that
when reacting to a misinformation story, Reddit users are more likely to be
toxic to users of different political beliefs than in other settings. Finally,
utilizing a zero-inflated negative binomial regression, we identify that as the
toxicity of subreddits increases, users are more likely to comment on
misinformation-related Reddit submissions.
- Abstract(参考訳): 信頼できないソースからのニュースに対して、ユーザやコミュニティはどのように反応するのか?
これらのソースからのニュースはどのようにオンライン会話を変えるのか?
本研究は,ソーシャルメディアプラットフォームReddit上での政治的悪質と毒性を喚起する上での誤情報の役割について考察する。
Google Jigsaw Perspective APIを使用して、毒性、ヘイトスピーチ、その他の形態の悪質を識別すると、誤報記事に対するRedditのコメントは、本物のニュース記事に対するコメントよりも71.4%が有害である可能性が高い。
コメント者の悪行の特定と指数的ランダムグラフモデルの利用により、誤情報に反応すると、Redditユーザーは、他の設定よりも異なる政治的信念を持つユーザーに有害である可能性が高いことを示す。
最後に、ゼロ膨らんだ負の2項回帰を利用して、サブredditの毒性が増すにつれて、ユーザは誤った情報に関連したredditの投稿にコメントする傾向が高まることを突き止めた。
関連論文リスト
- Twits, Toxic Tweets, and Tribal Tendencies: Trends in Politically
Polarized Posts on Twitter [4.357949911556638]
政治イデオロギーが個人のユーザレベルとTwitterのトピックレベルの両方で毒性に寄与する役割について検討する。
55,415人のTwitterユーザーから1億8700万のツイートを集めた結果、政治イデオロギーやアカウント年齢などのアカウントレベルの特徴が、各ユーザーが有害コンテンツを投稿する頻度を予測する。
論文 参考訳(メタデータ) (2023-07-19T17:24:47Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Twitter Users' Behavioral Response to Toxic Replies [1.2387676601792899]
我々は,Twitter上でのユーザのオンライン行動に及ぼす毒性の影響を検討した。
毒性の犠牲者は, 回避, 復讐, 対策, 交渉といった行動反応の組合せがみられた。
本研究は, ソーシャルメディア上での毒性の負の結果を低減するための, より効果的な検出・介入手法の開発において, さらなる研究を支援することができる。
論文 参考訳(メタデータ) (2022-10-24T17:36:58Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Designing Toxic Content Classification for a Diversity of Perspectives [15.466547856660803]
我々は17,280人の参加者を対象に,有毒なコンテンツを構成するものに対するユーザの期待が,人口動態,信念,個人的経験によってどのように異なるかを調査した。
歴史的に嫌がらせのリスクがあるグループは、Reddit、Twitter、あるいは4chanから無作為なコメントを有害であると警告する傾向にある。
JigsawのパースペクティブAPIのような、現在の一大毒性分類アルゴリズムは、パーソナライズされたモデルチューニングによって、平均86%の精度で改善できることを示す。
論文 参考訳(メタデータ) (2021-06-04T16:45:15Z) - Online Hate: Behavioural Dynamics and Relationship with Misinformation [0.0]
YouTubeビデオに100万以上のコメントが寄せられたコーパスでヘイトスピーチ検出を行います。
我々の結果は、ゴドウィンの法則に則って、オンラインの議論は、ますます有害な意見交換へと縮退する傾向にあることを示している。
論文 参考訳(メタデータ) (2021-05-28T17:30:51Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Information Consumption and Social Response in a Segregated Environment:
the Case of Gab [74.5095691235917]
この研究は、COVID-19トピックに関するGab内のインタラクションパターンの特徴を提供する。
疑わしい、信頼できるコンテンツに対する社会的反応には、統計的に強い違いはない。
本研究は,協調した不正確な行動の理解と情報操作の早期警戒に関する知見を提供する。
論文 参考訳(メタデータ) (2020-06-03T11:34:25Z) - Measuring and Characterizing Hate Speech on News Websites [13.289076063197466]
われわれは19ヶ月の間に412万件のニュース記事に投稿された1億125万件のコメントを分析した。
シャーロッツビルでの「統一右派」集会のような現実世界の分裂イベントに関するヘイトフルなコメント活動の統計学的に顕著な増加が見られる。
ヘイトフルコメントを惹きつける記事は、ヘイトフルコメントを惹きつけない記事に比べ、言語的特徴が異なることがわかった。
論文 参考訳(メタデータ) (2020-05-16T09:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。