論文の概要: Beyond Trolling: Malware-Induced Misperception Attacks on Polarized
Facebook Discourse
- arxiv url: http://arxiv.org/abs/2002.03885v1
- Date: Mon, 10 Feb 2020 15:55:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-04 01:45:46.370480
- Title: Beyond Trolling: Malware-Induced Misperception Attacks on Polarized
Facebook Discourse
- Title(参考訳): マルウェアによるFacebookの偏見による誤認識攻撃
- Authors: Filipo Sharevski, Paige Treebridge, Peter Jachim, Audrey Li, Adam
Babin, Jessica Westbrook
- Abstract要約: 本稿では,ユーザが真正なコンテンツをどう認識するかを操作することによって,ソーシャルメディアの言論を喚起し,サイレンシングする代替手法を提案する。
マン・イン・ザ・ミドル(Man-in-the-middle)というマルウェアは、真正なソーシャルメディア投稿とコメントの言語コンテンツを隠蔽的に再構成する。
- 参考スコア(独自算出の注目度): 7.470506991479105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media trolling is a powerful tactic to manipulate public opinion on
issues with a high moral component. Troll farms, as evidenced in the past,
created fabricated content to provoke or silence people to share their opinion
on social media during the US presidential election in 2016. In this paper, we
introduce an alternate way of provoking or silencing social media discourse by
manipulating how users perceive authentic content. This manipulation is
performed by man-in-the-middle malware that covertly rearranges the linguistic
content of an authentic social media post and comments. We call this attack
Malware-Induced Misperception (MIM) because the goal is to socially engineer
spiral-of-silence conditions on social media by inducing perception. We
conducted experimental tests in controlled settings (N = 311) where a malware
covertly altered selected words in a Facebook post about the freedom of
political expression on college campuses. The empirical results (1) confirm the
previous findings about the presence of the spiral-of-silence effect on social
media; and (2) demonstrate that inducing misperception is an effective tactic
to silence or provoke targeted users on Facebook to express their opinion on a
polarizing political issue.
- Abstract(参考訳): ソーシャルメディアのトロリングは、道徳的要素の高い問題に対する世論を操る強力な戦術である。
トロルファームは、過去に実証されたように、2016年の米大統領選挙でソーシャルメディア上で人々が意見を共有するように促したり、黙らせるために作られたコンテンツを生み出した。
本稿では,ユーザが真のコンテンツをどう知覚するかを操作することによって,ソーシャルメディアの言論を喚起し,サイレンシングする方法を紹介する。
この操作は、正真正銘のソーシャルメディア投稿やコメントの言語的内容を秘密裏に並べ替える中間者マルウェアによって行われる。
この攻撃をマルウェアによる誤解(mim)と呼ぶのは、ソーシャルメディア上でスパイラル・オブ・サイレンス(スパイラル・オブ・サイレンス)な条件を社会的に設計することを目的としているからです。
大学キャンパスにおける政治表現の自由に関するfacebookの投稿において,マルウェアが選択した単語を秘密裏に改変した,制御された設定 (n = 311) で実験を行った。
実験の結果,(1)ソーシャルメディア上でのスパイラル・オブ・サイレンス効果の存在に関する過去の知見を確認し,(2)誤認識の誘発はFacebook上のターゲットユーザーを黙らせ,刺激し,政治的問題を偏在させる効果的な戦術であることを実証した。
関連論文リスト
- On the Use of Proxies in Political Ad Targeting [49.61009579554272]
我々は、主要な政治広告主がプロキシ属性をターゲットとして緩和を回避したことを示す。
本研究は政治広告の規制に関する議論に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-18T17:15:13Z) - Personal Moderation Configurations on Facebook: Exploring the Role of
FoMO, Social Media Addiction, Norms, and Platform Trust [1.7223564681760166]
行方不明者(FoMO)やソーシャルメディア中毒の恐れは、Facebookユーザーをコンテンツベースの被害に対してより脆弱にする。
Facebookのモデレーションシステムに対する信頼は、個人のモデレーションに対するユーザのエンゲージメントにも大きく影響する。
論文 参考訳(メタデータ) (2024-01-11T00:28:57Z) - Dynamics of Ideological Biases of Social Media Users [0.0]
オンラインプラットフォーム全体の世論グループの進化は,世論を抱きたいという欲求に支えられていることを示す。
われわれはTwitterとParlerという2つのソーシャルメディアに焦点を当て、ユーザーの政治的偏見を追跡した。
論文 参考訳(メタデータ) (2023-09-27T19:39:07Z) - Fight Fire with Fire: Hacktivists' Take on Social Media Misinformation [6.421670116083633]
我々は22人の著名なハクティビストにインタビューを行い、ソーシャルメディア上の誤情報の増加について話を聞いた。
いずれも、プロパガンダの政治的(国家の)調停と普及を目的として、トロリングやミームの悪評を歓迎する者はいなかった。
本稿では, 建設的かつ現実的なソーシャルメディアの言説を擁護するハッキティビズムの創発的再放送に対して, これらの知見がもたらす意味について論じる。
論文 参考訳(メタデータ) (2023-02-15T17:20:02Z) - Automated Sentiment and Hate Speech Analysis of Facebook Data by
Employing Multilingual Transformer Models [15.823923425516078]
我々は、Facebookの代表的なデータセットの中で、憎悪とネガティブな感情内容の統計的分布を分析する。
我々は、感情分析やヘイトスピーチ分析を行うために、最先端のオープンソースのXLM-T多言語変換言語モデルを用いている。
論文 参考訳(メタデータ) (2023-01-31T14:37:04Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z) - #MeToo on Campus: Studying College Sexual Assault at Scale Using Data
Reported on Social Media [71.74529365205053]
我々は、#トレンドが大学フォロワーのプールに与える影響を分析した。
その結果、これらの#ツイートに埋め込まれたトピックの大部分は、セクシャルハラスメントのストーリーを詳述している。
この傾向といくつかの主要地理的地域に関する公式な報告との間には大きな相関関係がある。
論文 参考訳(メタデータ) (2020-01-16T18:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。