論文の概要: Meaningful Context, a Red Flag, or Both? Users' Preferences for Enhanced
Misinformation Warnings on Twitter
- arxiv url: http://arxiv.org/abs/2205.01243v1
- Date: Mon, 2 May 2022 22:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:38:57.288077
- Title: Meaningful Context, a Red Flag, or Both? Users' Preferences for Enhanced
Misinformation Warnings on Twitter
- Title(参考訳): 意味のあるコンテキスト、赤い旗、あるいはその両方?
twitter上での誤情報警告の強化に対するユーザの選好
- Authors: Filipo Sharevski and Amy Devine and Emma Pieroni and Peter Jacnim
- Abstract要約: 本研究では,ソーシャルメディア上での誤情報のソフトモデレーションにおけるユーザ調整による改善を提案する。
私たちは337人の参加者によるユーザビリティ調査で、Twitterのオリジナルの警告タグを使ってA/B評価を実行しました。
参加者の大多数は、誤報の認識と回避に苦慮した。
- 参考スコア(独自算出の注目度): 6.748225062396441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Warning users about misinformation on social media is not a simple usability
task. Soft moderation has to balance between debunking falsehoods and avoiding
moderation bias while preserving the social media consumption flow. Platforms
thus employ minimally distinguishable warning tags with generic text under a
suspected misinformation content. This approach resulted in an unfavorable
outcome where the warnings "backfired" and users believed the misinformation
more, not less. In response, we developed enhancements to the misinformation
warnings where users are advised on the context of the information hazard and
exposed to standard warning iconography. We ran an A/B evaluation with the
Twitter's original warning tags in a 337 participant usability study. The
majority of the participants preferred the enhancements as a nudge toward
recognizing and avoiding misinformation. The enhanced warning tags were most
favored by the politically left-leaning and to a lesser degree moderate
participants, but they also appealed to roughly a third of the right-leaning
participants. The education level was the only demographic factor shaping
participants' preferences. We use our findings to propose user-tailored
improvements in the soft moderation of misinformation on social media.
- Abstract(参考訳): ソーシャルメディア上での誤情報の警告は、単純なユーザビリティタスクではない。
ソフトモデレーションは、ソーシャルメディアの消費の流れを保ちながら、偽装とモデレーションバイアスを避けるためのバランスをとる必要がある。
したがってプラットフォームは、疑わしい誤情報コンテンツの下で、最小限の識別可能な警告タグとジェネリックテキストを使用する。
このアプローチは、警告が"バックファイア"され、ユーザが誤報をより信じているという好ましくない結果をもたらした。
そこで我々は,情報ハザードの文脈でユーザがアドバイスされ,標準警告アイコンに露出する誤報警告の強化を行った。
337名の参加者によるユーザビリティスタディにおいて、twitterのオリジナルの警告タグを用いてa/b評価を行った。
参加者の大半は、誤情報の認識と回避の核心として、この強化を好んだ。
強化された警告タグは、政治的に左派とやや穏健な参加者に最も好まれたが、右派の参加者の約3分の1に訴えた。
教育水準は、参加者の嗜好を形作る唯一の要因であった。
本研究は,ソーシャルメディア上での誤情報のソフトモデレーションにおけるユーザ調整による改善を提案する。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Does the Source of a Warning Matter? Examining the Effectiveness of Veracity Warning Labels Across Warners [0.0]
我々は,警告ラベルソースが情報信頼や共有意図に与える影響をよりよく理解するために,オンライン・オブジェクト間実験を行った。
いずれも、制御に関する偽情報の信頼性を著しく低下させたが、AIからの警告はわずかに効果的であった。
論文 参考訳(メタデータ) (2024-07-31T13:27:26Z) - Measuring Strategization in Recommendation: Users Adapt Their Behavior to Shape Future Content [66.71102704873185]
実験と調査を行うことで,ユーザストラテジゼーションの試行を行う。
参加者の居住時間や「いいね!」の使用など,結果指標間での戦略化の強い証拠を見出す。
この結果から,プラットフォームはアルゴリズムがユーザの行動に与える影響を無視できないことが示唆された。
論文 参考訳(メタデータ) (2024-05-09T07:36:08Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - "I Won the Election!": An Empirical Analysis of Soft Moderation
Interventions on Twitter [0.9391375268580806]
ツイートをTwitter上で警告ラベルで共有するユーザとその政治的傾向について検討する。
警告ラベル付きツイートの72%が共和党員、1%が民主党員だ。
論文 参考訳(メタデータ) (2021-01-18T17:39:58Z) - Predicting Misinformation and Engagement in COVID-19 Twitter Discourse
in the First Months of the Outbreak [1.2059055685264957]
新型コロナウイルス(COVID-19)関連ツイート50万件近くを調べ、ボット行動とエンゲージメントの機能として誤情報を理解する。
実際のユーザーは事実と誤情報の両方をツイートし、ボットは偽情報よりも比例的にツイートしていることがわかった。
論文 参考訳(メタデータ) (2020-12-03T18:47:34Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Adapting Security Warnings to Counter Online Disinformation [6.592035021489205]
我々は、効果的な偽情報警告を設計するために、情報セキュリティ警告文献の方法と結果を適用する。
ユーザがいつもコンテキスト警告を無視しているのが分かりましたが、ユーザは間欠警告に気付きます。
警告の設計がユーザに効果的に通知したり、危害のリスクを伝えることができることがわかったのです。
論文 参考訳(メタデータ) (2020-08-25T01:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。