論文の概要: Meaningful Context, a Red Flag, or Both? Users' Preferences for Enhanced
Misinformation Warnings on Twitter
- arxiv url: http://arxiv.org/abs/2205.01243v1
- Date: Mon, 2 May 2022 22:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:38:57.288077
- Title: Meaningful Context, a Red Flag, or Both? Users' Preferences for Enhanced
Misinformation Warnings on Twitter
- Title(参考訳): 意味のあるコンテキスト、赤い旗、あるいはその両方?
twitter上での誤情報警告の強化に対するユーザの選好
- Authors: Filipo Sharevski and Amy Devine and Emma Pieroni and Peter Jacnim
- Abstract要約: 本研究では,ソーシャルメディア上での誤情報のソフトモデレーションにおけるユーザ調整による改善を提案する。
私たちは337人の参加者によるユーザビリティ調査で、Twitterのオリジナルの警告タグを使ってA/B評価を実行しました。
参加者の大多数は、誤報の認識と回避に苦慮した。
- 参考スコア(独自算出の注目度): 6.748225062396441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Warning users about misinformation on social media is not a simple usability
task. Soft moderation has to balance between debunking falsehoods and avoiding
moderation bias while preserving the social media consumption flow. Platforms
thus employ minimally distinguishable warning tags with generic text under a
suspected misinformation content. This approach resulted in an unfavorable
outcome where the warnings "backfired" and users believed the misinformation
more, not less. In response, we developed enhancements to the misinformation
warnings where users are advised on the context of the information hazard and
exposed to standard warning iconography. We ran an A/B evaluation with the
Twitter's original warning tags in a 337 participant usability study. The
majority of the participants preferred the enhancements as a nudge toward
recognizing and avoiding misinformation. The enhanced warning tags were most
favored by the politically left-leaning and to a lesser degree moderate
participants, but they also appealed to roughly a third of the right-leaning
participants. The education level was the only demographic factor shaping
participants' preferences. We use our findings to propose user-tailored
improvements in the soft moderation of misinformation on social media.
- Abstract(参考訳): ソーシャルメディア上での誤情報の警告は、単純なユーザビリティタスクではない。
ソフトモデレーションは、ソーシャルメディアの消費の流れを保ちながら、偽装とモデレーションバイアスを避けるためのバランスをとる必要がある。
したがってプラットフォームは、疑わしい誤情報コンテンツの下で、最小限の識別可能な警告タグとジェネリックテキストを使用する。
このアプローチは、警告が"バックファイア"され、ユーザが誤報をより信じているという好ましくない結果をもたらした。
そこで我々は,情報ハザードの文脈でユーザがアドバイスされ,標準警告アイコンに露出する誤報警告の強化を行った。
337名の参加者によるユーザビリティスタディにおいて、twitterのオリジナルの警告タグを用いてa/b評価を行った。
参加者の大半は、誤情報の認識と回避の核心として、この強化を好んだ。
強化された警告タグは、政治的に左派とやや穏健な参加者に最も好まれたが、右派の参加者の約3分の1に訴えた。
教育水準は、参加者の嗜好を形作る唯一の要因であった。
本研究は,ソーシャルメディア上での誤情報のソフトモデレーションにおけるユーザ調整による改善を提案する。
関連論文リスト
- Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - "I Won the Election!": An Empirical Analysis of Soft Moderation
Interventions on Twitter [0.9391375268580806]
ツイートをTwitter上で警告ラベルで共有するユーザとその政治的傾向について検討する。
警告ラベル付きツイートの72%が共和党員、1%が民主党員だ。
論文 参考訳(メタデータ) (2021-01-18T17:39:58Z) - Social Media COVID-19 Misinformation Interventions Viewed Positively,
But Have Limited Impact [16.484676698355884]
FacebookやTwitterといったソーシャルメディアプラットフォームは、権威のあるリソースにリンクするバナーや、より具体的な「偽情報」ラベルなど、デザインの介入をロールアウトした。
その結果,ほとんどの参加者は介入に対する肯定的な態度を示し,特に偽情報のポスト特異的なラベルが認められた。
しかし、ほとんどの参加者は、他の手段、最も一般的なウェブ検索を通じて誤情報を発見または修正し、プラットフォームが新型コロナウイルス(COVID-19)の偽情報の拡散を抑える余地を示唆している。
論文 参考訳(メタデータ) (2020-12-21T00:02:04Z) - Predicting Misinformation and Engagement in COVID-19 Twitter Discourse
in the First Months of the Outbreak [1.2059055685264957]
新型コロナウイルス(COVID-19)関連ツイート50万件近くを調べ、ボット行動とエンゲージメントの機能として誤情報を理解する。
実際のユーザーは事実と誤情報の両方をツイートし、ボットは偽情報よりも比例的にツイートしていることがわかった。
論文 参考訳(メタデータ) (2020-12-03T18:47:34Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Adapting Security Warnings to Counter Online Disinformation [6.592035021489205]
我々は、効果的な偽情報警告を設計するために、情報セキュリティ警告文献の方法と結果を適用する。
ユーザがいつもコンテキスト警告を無視しているのが分かりましたが、ユーザは間欠警告に気付きます。
警告の設計がユーザに効果的に通知したり、危害のリスクを伝えることができることがわかったのです。
論文 参考訳(メタデータ) (2020-08-25T01:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。