論文の概要: Diverse Perspectives Can Mitigate Political Bias in Crowdsourced Content
Moderation
- arxiv url: http://arxiv.org/abs/2305.14500v1
- Date: Tue, 23 May 2023 20:10:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 23:35:03.522352
- Title: Diverse Perspectives Can Mitigate Political Bias in Crowdsourced Content
Moderation
- Title(参考訳): クラウドソーシングによるコンテンツモデレーションにおける政治的バイアス軽減の可能性
- Authors: Jacob Thebault-Spieker, Sukrit Venkatagiri, Naomi Mine, Kurt Luther
- Abstract要約: ソーシャルメディア企業は、プラットフォーム上の政治コンテンツを取り巻くコンテンツモデレーションポリシーの定義と強化に不満を抱いている。
このタスクにおいて、人間のラベルがどの程度うまく機能するか、あるいは、バイアスがこのプロセスに影響を及ぼすかどうかは不明だ。
集団労働者による政治内容の特定の実現可能性と実践性を実験的に評価した。
- 参考スコア(独自算出の注目度): 5.470971742987594
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, social media companies have grappled with defining and
enforcing content moderation policies surrounding political content on their
platforms, due in part to concerns about political bias, disinformation, and
polarization. These policies have taken many forms, including disallowing
political advertising, limiting the reach of political topics, fact-checking
political claims, and enabling users to hide political content altogether.
However, implementing these policies requires human judgement to label
political content, and it is unclear how well human labelers perform at this
task, or whether biases affect this process. Therefore, in this study we
experimentally evaluate the feasibility and practicality of using crowd workers
to identify political content, and we uncover biases that make it difficult to
identify this content. Our results problematize crowds composed of seemingly
interchangeable workers, and provide preliminary evidence that aggregating
judgements from heterogeneous workers may help mitigate political biases. In
light of these findings, we identify strategies to achieving fairer labeling
outcomes, while also better supporting crowd workers at this task and
potentially mitigating biases.
- Abstract(参考訳): 近年、ソーシャルメディア企業は、政治的バイアス、偽情報、偏りといった懸念から、自社のプラットフォーム上の政治的コンテンツを取り巻くコンテンツモデレーションポリシーの定義と実施に取り組んできた。
これらのポリシーは、政治広告の禁止、政治トピックのリーチの制限、政治的クレームの事実チェック、ユーザーが政治コンテンツを完全に隠すことなど、様々な形態を採っている。
しかし、これらの政策の実施には、政治的内容のラベル付けに人間の判断が必要であり、このタスクにおいて人間のラベル付け者がどのように機能するか、またはバイアスがこのプロセスに影響を与えているかは明らかではない。
そこで本研究では, クラウドワーカーによる政治的コンテンツの同定の可能性と実用性を実験的に評価し, コンテンツの同定を困難にするバイアスを明らかにする。
その結果、異種労働者の判断を集約することで政治的偏見を緩和できるという予備的な証拠が得られた。
これらの結果を踏まえて、より公正なラベル付け結果を達成するための戦略を特定し、また、このタスクにおける群衆労働者のより良い支援とバイアス軽減の可能性を秘めている。
関連論文リスト
- On the Use of Proxies in Political Ad Targeting [49.61009579554272]
我々は、主要な政治広告主がプロキシ属性をターゲットとして緩和を回避したことを示す。
本研究は政治広告の規制に関する議論に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-18T17:15:13Z) - Measuring Political Bias in Large Language Models: What Is Said and How It Is Said [46.1845409187583]
政治問題に関するコンテンツの内容とスタイルの両方を分析し,LLMにおける政治的偏見を測定することを提案する。
提案尺度は, 生殖権や気候変動などの異なる政治課題を, それらのバイアスの内容(世代的物質)と様式(語彙的極性)の両方で考察する。
論文 参考訳(メタデータ) (2024-03-27T18:22:48Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Generalizing Political Leaning Inference to Multi-Party Systems:
Insights from the UK Political Landscape [10.798766768721741]
ソーシャルメディアユーザーの政治的傾きを推測する能力は、世論調査の収集に役立つ。
政治的傾きと相互のインタラクションによってラベル付けされたユーザからなるデータセットをリリースする。
我々は、ユーザー間のリツイートという形でのインタラクションが、政治的に傾いた推論を可能にする、非常に強力な機能であることを示します。
論文 参考訳(メタデータ) (2023-12-04T09:02:17Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Quantitative Analysis of Forecasting Models:In the Aspect of Online
Political Bias [0.0]
ソーシャルメディア投稿を5つの異なる政治傾向カテゴリーに分類する手法を提案する。
我々のアプローチは、政治的イデオロギーの異なる2つのソーシャルメディアデータセット上で、既存の時系列予測モデルを活用することである。
論文 参考訳(メタデータ) (2023-09-11T16:17:24Z) - Changes in Policy Preferences in German Tweets during the COVID Pandemic [4.663960015139793]
政治的嗜好の微妙なアノテーションを付加した新しいツイートデータセットを提示する。
このデータに基づいて訓練されたテキスト分類モデルを用いて、政治的意見を抽出する。
その結果、新型コロナウイルスのパンデミックを受けて、政治的意見の表現が増加したことが示唆された。
論文 参考訳(メタデータ) (2023-07-31T16:07:28Z) - Millions of Co-purchases and Reviews Reveal the Spread of Polarization
and Lifestyle Politics across Online Markets [68.8204255655161]
多様な市場において,異なる製品セグメントにおける分極とライフスタイル政治の広範性について検討する。
政治的に関連性があり、整列し、偏極化した製品カテゴリーを見つけるために、218万の市場組織間で236万の関連をサンプリングした。
文化製品は他のどの部分よりも4倍偏光度が高い。
論文 参考訳(メタデータ) (2022-01-17T18:16:37Z) - Reaching the bubble may not be enough: news media role in online
political polarization [58.720142291102135]
分極を減らす方法は、異なる政治的指向を持つ個人に党間のニュースを分配することである。
本研究は、ブラジルとカナダにおける全国選挙の文脈において、これが成立するかどうかを考察する。
論文 参考訳(メタデータ) (2021-09-18T11:34:04Z) - Political Posters Identification with Appearance-Text Fusion [49.55696202606098]
外観特徴とテキストベクトルを効率的に活用し, 政治ポスターを高精度に分類する手法を提案する。
この作品の大半は、特定の政治イベントのプロモーションとして機能するように設計された政治ポスターに焦点を当てている。
論文 参考訳(メタデータ) (2020-12-19T16:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。