論文の概要: A Civics-oriented Approach to Understanding Intersectionally Marginalized Users' Experience with Hate Speech Online
- arxiv url: http://arxiv.org/abs/2410.14950v1
- Date: Sat, 19 Oct 2024 02:40:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:19:16.532696
- Title: A Civics-oriented Approach to Understanding Intersectionally Marginalized Users' Experience with Hate Speech Online
- Title(参考訳): ヘイトスピーチオンラインを用いた地域間結婚者の体験理解への市民志向のアプローチ
- Authors: Achhiya Sultana, Dipto Das, Saadia Binte Alam, Mohammad Shidujaman, Syed Ishtiaque Ahmed,
- Abstract要約: オンラインプラットフォームにおけるコンテンツモデレーションは、グローバル・サウスのユーザーを概して過小評価している。
本稿では,バングラデシュにおけるヘイトスピーチのユーザ体験が,交差点のアイデンティティによってどのように形作られるのかを考察する。
- 参考スコア(独自算出の注目度): 15.257338064786198
- License:
- Abstract: While content moderation in online platforms marginalizes users in the Global South at large, users of certain identities are further marginalized. Such users often come from Indigenous ethnic minority groups or identify as women. Through a qualitative study based on 18 semi-structured interviews, this paper explores how such users' experiences with hate speech online in Bangladesh are shaped by their intersectional identities. Through a civics-oriented approach, we examined the spectrum of their legal status, membership, rights, and participation as users of online platforms. Drawing analogies with the concept of citizenship, we develop the concept of usership that offers a user-centered metaphor in studying moderation and platform governance.
- Abstract(参考訳): オンラインプラットフォームにおけるコンテンツモデレーションは、グローバル・サウスのユーザーを全般的にマージする一方、特定のアイデンティティのユーザーはさらにマージする。
このような人々は、しばしば先住民族の少数民族から来たり、女性として特定されたりする。
本稿では,バングラデシュにおけるヘイトスピーチのユーザ体験が,交差点のアイデンティティによってどのように形成されているかについて,半構造化インタビュー18件の質的研究を通して考察する。
市民志向のアプローチを通じて,オンラインプラットフォーム利用者としての法的地位,会員シップ,権利,参加のスペクトルについて検討した。
市民権の概念と類似性を引き合いに出し,モデレーションとプラットフォームガバナンスを研究する上で,ユーザ中心のメタファを提供するユーザシップの概念を開発する。
関連論文リスト
- A Hate Speech Moderated Chat Application: Use Case for GDPR and DSA Compliance [0.0]
本研究は、コンテンツモデレーションプロセスに法的・倫理的推論を実装する新しい応用法を提案する。
GPT-3.5やSolid Pods,ルール言語Provaといった技術を使って,オンラインコミュニケーションの基本となる2つのユースケースを提示し,実装する。
この研究は、ヘイトスピーチの法的および倫理的定義の異なる範囲で推論するための新しいアプローチを提案し、ヘイトスピーチに適合するカウンターを計画する。
論文 参考訳(メタデータ) (2024-10-10T08:28:38Z) - The PRISM Alignment Project: What Participatory, Representative and Individualised Human Feedback Reveals About the Subjective and Multicultural Alignment of Large Language Models [67.38144169029617]
PRISMは,75か国から1500人の多様な参加者を対象に,社会デマトグラフィーをマッピングし,嗜好を提示する新しいデータセットである。
PRISMは、(i)ヒトのフィードバックデータにおける地理的および人口統計学的関与、(ii)集団福祉(UKとUS)を理解するための2つの国勢調査表現サンプル、(iii)全ての評価が詳細な参加者プロファイルに関連付けられている個別化されたフィードバックに寄与する。
論文 参考訳(メタデータ) (2024-04-24T17:51:36Z) - Dynamics of Ideological Biases of Social Media Users [0.0]
オンラインプラットフォーム全体の世論グループの進化は,世論を抱きたいという欲求に支えられていることを示す。
われわれはTwitterとParlerという2つのソーシャルメディアに焦点を当て、ユーザーの政治的偏見を追跡した。
論文 参考訳(メタデータ) (2023-09-27T19:39:07Z) - Disinformation Echo-Chambers on Facebook [0.27195102129095]
この章では、Facebookグループ内の協調的不正確な振る舞いを特定するために設計された計算手法を紹介する。
この方法は、投稿、URL、画像の分析に焦点を当て、一部のFacebookグループが組織されたキャンペーンに従事していることを明らかにした。
これらのグループは同一のコンテンツを同時に共有し、ユーザーが嘘や誤解を招く物語を繰り返し遭遇することを露呈する可能性がある。
論文 参考訳(メタデータ) (2023-09-14T14:33:16Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Thread With Caution: Proactively Helping Users Assess and Deescalate
Tension in Their Online Discussions [13.455968033357065]
オンラインディスカッションプラットフォームにとって、インキュビティは依然として大きな課題だ。
伝統的に、プラットフォームはモデレーターを -- アルゴリズムの支援の有無に関わらず -- 頼りにしており、コメントの削除やユーザー禁止といった修正措置を取っている。
本研究では,会話における既存の緊張感に対する意識を積極的に高め,ユーザに直接力を与える補完的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-12-02T19:00:03Z) - Estimating Topic Exposure for Under-Represented Users on Social Media [25.963970325207892]
この研究は、観察されたデータに対する参加者の貢献を強調することに重点を置いている。
これらのユーザの行動分析の最初のステップは、公開されているが関与していないトピックを見つけることです。
本稿では,これらのユーザを特定し,トピックの露出を推定する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-07T19:37:41Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - SoMin.ai: Personality-Driven Content Generation Platform [60.49416044866648]
世界初のパーソナリティ駆動型マーケティングコンテンツ生成プラットフォームであるSoMin.aiを紹介します。
このプラットフォームは、ディープ・マルチビュー・パーソナリティ・プロファイリング・フレームワークと、スタイル・ジェネレーティブ・敵ネットワークを組み合わせている。
ソーシャルネットワーキングのユーザエクスペリエンスの向上や、コンテンツマーケティングのルーチンに使用できる。
論文 参考訳(メタデータ) (2020-11-30T08:33:39Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。