論文の概要: "I Won the Election!": An Empirical Analysis of Soft Moderation
Interventions on Twitter
- arxiv url: http://arxiv.org/abs/2101.07183v2
- Date: Tue, 13 Apr 2021 10:05:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 21:10:14.336896
- Title: "I Won the Election!": An Empirical Analysis of Soft Moderation
Interventions on Twitter
- Title(参考訳): 「私は選挙に勝った!」:twitterにおけるソフトモデレーション介入の実証分析
- Authors: Savvas Zannettou
- Abstract要約: ツイートをTwitter上で警告ラベルで共有するユーザとその政治的傾向について検討する。
警告ラベル付きツイートの72%が共和党員、1%が民主党員だ。
- 参考スコア(独自算出の注目度): 0.9391375268580806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past few years, there is a heated debate and serious public concerns
regarding online content moderation, censorship, and the principle of free
speech on the Web. To ease these concerns, social media platforms like Twitter
and Facebook refined their content moderation systems to support soft
moderation interventions. Soft moderation interventions refer to warning labels
attached to potentially questionable or harmful content to inform other users
about the content and its nature while the content remains accessible, hence
alleviating concerns related to censorship and free speech. In this work, we
perform one of the first empirical studies on soft moderation interventions on
Twitter. Using a mixed-methods approach, we study the users who share tweets
with warning labels on Twitter and their political leaning, the engagement that
these tweets receive, and how users interact with tweets that have warning
labels. Among other things, we find that 72% of the tweets with warning labels
are shared by Republicans, while only 11% are shared by Democrats. By analyzing
content engagement, we find that tweets with warning labels had more engagement
compared to tweets without warning labels. Also, we qualitatively analyze how
users interact with content that has warning labels finding that the most
popular interactions are related to further debunking false claims, mocking the
author or content of the disputed tweet, and further reinforcing or resharing
false claims. Finally, we describe concrete examples of inconsistencies, such
as warning labels that are incorrectly added or warning labels that are not
added on tweets despite sharing questionable and potentially harmful
information.
- Abstract(参考訳): ここ数年、オンラインコンテンツモデレーション、検閲、およびウェブ上の言論の自由の原則に関する熱い議論と深刻な公的な懸念が続いている。
こうした懸念を和らげるために、TwitterやFacebookといったソーシャルメディアプラットフォームはコンテンツモデレーションシステムを改良し、ソフトモデレーションの介入をサポートした。
ソフトモデレーション介入(soft moderation interventions)とは、疑わしいコンテンツや有害なコンテンツにアタッチされた警告ラベルで、コンテンツがアクセス可能である間、コンテンツとその性質を他のユーザーに知らせる。
本稿では,twitter上でのソフトモデレーション介入に関する最初の実証研究を行う。
混合メソッドのアプローチを用いて、ツイートをTwitter上の警告ラベルと共有するユーザとその政治的傾向、これらのツイートが受信するエンゲージメント、および警告ラベルを持つツイートとのインタラクション方法について調査する。
中でも、警告ラベル付きツイートの72%が共和党によって共有され、わずか11%が民主党によって共有されている。
コンテンツエンゲージメントを分析することで、警告ラベル付きツイートは警告ラベルなしツイートよりもエンゲージメントが高いことがわかった。
また,警告ラベルのあるコンテンツとユーザがどのように対話するかを定性的に分析し,最もポピュラーなインタラクションは,虚偽のクレームの削除,議論されたツイートの著者やコンテンツのモック,虚偽のクレームの強化や再共有などに関連していることを確認した。
最後に,不正に付加された警告ラベルや,疑わしい情報や潜在的に有害な情報を共有してもツイートに付加されない警告ラベルなど,不整合の具体例について述べる。
関連論文リスト
- Incentivizing News Consumption on Social Media Platforms Using Large Language Models and Realistic Bot Accounts [4.06613683722116]
本研究は,Twitter上での検証およびイデオロギー的にバランスの取れたニュースに対するユーザの露出とエンゲージメントを高める方法について検討する。
われわれは、スポーツ、エンターテイメント、ライフスタイルについてツイートするユーザーに対して、文脈対応で返信する28のボットを作った。
ロボットの性別による差分効果をテストするために、治療対象のユーザはランダムに、女性または男性として提示されたボットの応答を受信するように割り当てられた。
治療を受けたユーザーは、より多くのニュースアカウントをフォローし、女性のボット治療を受けたユーザーは、コントロールよりもニュースコンテンツを好む傾向にあった。
論文 参考訳(メタデータ) (2024-03-20T07:44:06Z) - Russo-Ukrainian War: Prediction and explanation of Twitter suspension [47.61306219245444]
本研究は、Twitterのサスペンション機構と、これにつながる可能性のあるユーザアカウントの共有コンテンツと機能の分析に焦点を当てる。
Twitter APIを使って、980万人のユーザーから生まれた107.7万のツイートを含むデータセットを入手しました。
この結果から、Bitcoin詐欺、スパム、広告キャンペーンに対するロシアとウクライナの紛争に関するトレンドを生かした詐欺キャンペーンが明らかになった。
論文 参考訳(メタデータ) (2023-06-06T08:41:02Z) - LAMBRETTA: Learning to Rank for Twitter Soft Moderation [11.319938541673578]
LAMBRETTAは、ソフトモデレーションの候補となるツイートを自動的に識別するシステムである。
私たちは、LAMBRETTAをTwitterのデータ上で実行し、2020年の米大統領選に関する虚偽の主張を穏健にしています。
ツイート数はTwitterの20倍以上で、偽陽性は3.93%、偽陰性は18.81%だった。
論文 参考訳(メタデータ) (2022-12-12T14:41:46Z) - Predicting Hate Intensity of Twitter Conversation Threads [26.190359413890537]
DRAGNET++は、将来、ツイートが返信チェーンを通じてもたらす憎悪の強さを予測することを目的としている。
ツイートスレッドのセマンティックな構造と伝播構造を利用して、続く各ツイートにおけるヘイトインテンシティの低下につながるコンテキスト情報を最大化する。
DRAGNET++は最先端のすべてのベースラインを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2022-06-16T18:51:36Z) - Meaningful Context, a Red Flag, or Both? Users' Preferences for Enhanced
Misinformation Warnings on Twitter [6.748225062396441]
本研究では,ソーシャルメディア上での誤情報のソフトモデレーションにおけるユーザ調整による改善を提案する。
私たちは337人の参加者によるユーザビリティ調査で、Twitterのオリジナルの警告タグを使ってA/B評価を実行しました。
参加者の大多数は、誤報の認識と回避に苦慮した。
論文 参考訳(メタデータ) (2022-05-02T22:47:49Z) - Manipulating Twitter Through Deletions [64.33261764633504]
Twitter上でのインフルエンスキャンペーンの研究は、公開APIを通じて得られたツイートから悪意のあるアクティビティを識別することに大きく依存している。
ここでは,1100万以上のアカウントによる10億以上の削除を含む,異常な削除パターンを網羅的かつ大規模に分析する。
少数のアカウントが毎日大量のツイートを削除していることがわかった。
まず、ツイートのボリューム制限が回避され、特定のアカウントが毎日2600万以上のツイートをネットワークに流すことができる。
第二に、調整されたアカウントのネットワークは、繰り返しのいいね!や、最終的に削除されるコンテンツとは違って、ランキングアルゴリズムを操作できる。
論文 参考訳(メタデータ) (2022-03-25T20:07:08Z) - Comparing the Language of QAnon-related content on Parler, Gab, and
Twitter [68.8204255655161]
保守派の間で人気の「言論の自由」プラットフォームであるParlerは、2021年1月に、憎悪やQAnonなどの陰謀に関するコンテンツのモデレーションの欠如により、オフラインになった。
われわれは投稿をParlerの#QAnonというハッシュタグと比較する。
Gabはヘイト条件の#QAnon投稿が最も多く、ParlerとTwitterも同様である。
これら3つのプラットフォームにおいて、女性政治家、民主党員、ドナルド・トランプに言及する投稿は、男性政治家、共和党員、あるいは共和党員に言及する投稿よりも、より反社会的な言葉を持っている。
論文 参考訳(メタデータ) (2021-11-22T11:19:15Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Understanding the Hoarding Behaviors during the COVID-19 Pandemic using
Large Scale Social Media Data [77.34726150561087]
われわれは、2020年3月1日から4月30日まで、米国で4万2000人以上のユニークTwitterユーザーによる嫌がらせと反嫌悪のパターンを分析した。
ホアーディンググループと反ホアーディンググループの両方の女性の比率が、一般のTwitter利用者の比率よりも高いことがわかりました。
LIWCの不安度はTwitterの不安度よりもかなり高い。
論文 参考訳(メタデータ) (2020-10-15T16:02:25Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。