論文の概要: Personal Moderation Configurations on Facebook: Exploring the Role of
FoMO, Social Media Addiction, Norms, and Platform Trust
- arxiv url: http://arxiv.org/abs/2401.05603v2
- Date: Sun, 3 Mar 2024 21:42:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 01:00:28.188725
- Title: Personal Moderation Configurations on Facebook: Exploring the Role of
FoMO, Social Media Addiction, Norms, and Platform Trust
- Title(参考訳): facebookの個人モデレーション構成:fomo、ソーシャルメディア依存、規範、プラットフォーム信頼の役割を探る
- Authors: Shagun Jhaver
- Abstract要約: 行方不明者(FoMO)やソーシャルメディア中毒の恐れは、Facebookユーザーをコンテンツベースの被害に対してより脆弱にする。
Facebookのモデレーションシステムに対する信頼は、個人のモデレーションに対するユーザのエンゲージメントにも大きく影響する。
- 参考スコア(独自算出の注目度): 1.7223564681760166
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Personal moderation tools on social media platforms let users control their
news feeds by configuring acceptable toxicity thresholds for their feed content
or muting inappropriate accounts. This research examines how four critical
psychosocial factors - fear of missing out (FoMO), social media addiction,
subjective norms, and trust in moderation systems - shape Facebook users'
configuration of these tools. Findings from a nationally representative sample
of 1,061 participants show that FoMO and social media addiction make Facebook
users more vulnerable to content-based harms by reducing their likelihood of
adopting personal moderation tools to hide inappropriate posts. In contrast,
descriptive and injunctive norms positively influence the use of these tools.
Further, trust in Facebook's moderation systems also significantly affects
users' engagement with personal moderation. This analysis highlights
qualitatively different pathways through which FoMO and social media addiction
make affected users disproportionately unsafe and offers design and policy
solutions to address this challenge.
- Abstract(参考訳): ソーシャルメディアプラットフォーム上のパーソナルモデレーションツールは、フィードコンテンツに対する許容毒性閾値を設定したり、不適切なアカウントをミュートすることで、ニュースフィードを制御できる。
本研究では,fomo(fear of missing out),ソーシャルメディア依存,主観的規範,モデレーションシステムへの信頼という4つの重要な心理社会的要因が,facebookユーザのこれらのツールの構成をどのように形成するかを検討した。
1,061人の全国代表者のサンプルから得られた調査結果によると、fomoとソーシャルメディア中毒は、facebookユーザーが不適切な投稿を隠すために個人モデレーションツールを採用する可能性を減らすことによって、コンテンツベースの危害に対してより脆弱になる。
対照的に、記述的および断続的規範はこれらのツールの使用に肯定的に影響を及ぼす。
さらに、Facebookのモデレーションシステムに対する信頼は、個人のモデレーションに対するユーザのエンゲージメントに大きく影響する。
この分析は、FoMOとソーシャルメディア中毒がユーザーに不適切な安全を与え、この課題に対処するための設計とポリシーのソリューションを提供する、質的に異なる経路を強調している。
関連論文リスト
- How Decentralization Affects User Agency on Social Platforms [0.0]
本研究は,園芸プラットフォームへの代替モデルとして,分散化が約束を果たす可能性について考察する。
本稿では,ブロックによるユーザ主導型コンテンツモデレーションを,分散型ソーシャルプラットフォームであるBluesky上のエージェンシー表現として記述する。
論文 参考訳(メタデータ) (2024-06-13T12:15:15Z) - Personalized Content Moderation and Emergent Outcomes [0.0]
ソーシャルメディアプラットフォームは、コミュニティの規範を守り、オンラインハラスメントとハラスメントを軽減するために、自動コンテンツモデレーションツールを実装している。
最近、これらのプラットフォームはパーソナライズされたコンテンツモデレーション(PCM)を提供し始めており、ユーザーはモデレーション設定を制御したり、アルゴリズムを個々のユーザの好みに合わせることができる。
本研究は,PCMが非対称情報損失(AIL)につながることを明らかにし,ユーザ間の共通理解の発達を阻害する可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-15T18:07:36Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - Semantic Similarity Models for Depression Severity Estimation [53.72188878602294]
本稿では、ソーシャルメディアの文章に基づいて、個人のうつ病の重症度を研究するための効率的なセマンティックパイプラインを提案する。
我々は,抑うつ症状と重度レベルに対応する代表訓練文の指標に対して意味的ランキングを生成するために,テストユーザ文を使用する。
本手法を2つのRedditベースのベンチマークで評価し,うつ病の重症度を指標として,最先端技術よりも30%改善した。
論文 参考訳(メタデータ) (2022-11-14T18:47:26Z) - Trust and Believe -- Should We? Evaluating the Trustworthiness of
Twitter Users [5.695742189917657]
ソーシャルメディア上のフェイクニュースは、個人と社会の両方に悪影響を及ぼす大きな問題である。
この作業において、私たちは、ソーシャルネットワークコミュニティに信頼を喚起するソリューションを提供したいと考えている。
本モデルでは,Twitter上で5万人の政治家の行動を分析し,評価されたユーザ毎に影響スコアを割り当てる。
論文 参考訳(メタデータ) (2022-10-27T06:57:19Z) - SOK: Seeing and Believing: Evaluating the Trustworthiness of Twitter
Users [4.609388510200741]
現在、どのニュースやユーザーが信頼できるか、どれがそうでないかを自動で判断する方法はない。
本研究では、Twitter上で5万人の政治家の行動を分析するモデルを作成しました。
政治Twitterのユーザを、ランダムな森林、多層パーセプトロン、サポートベクターマシンを使って、信頼あるいは信頼できないと分類した。
論文 参考訳(メタデータ) (2021-07-16T17:39:32Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z) - Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics [43.98568073610101]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。