論文の概要: Online Anti-sexist Speech: Identifying Resistance to Gender Bias in Political Discourse
- arxiv url: http://arxiv.org/abs/2508.11434v1
- Date: Fri, 15 Aug 2025 12:24:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.949096
- Title: Online Anti-sexist Speech: Identifying Resistance to Gender Bias in Political Discourse
- Title(参考訳): オンライン反性差別論:政治談話におけるジェンダーバイアス抵抗の同定
- Authors: Aditi Dutta, Susan Banducci,
- Abstract要約: 本研究では5つの大きな言語モデルが、英国からの性差別、反性差別、中立的な政治的ツイートを分類する方法について検討する。
分析の結果、特に政治的に帯電した出来事において、モデルはしばしば反セクシズムのスピーチを有害と誤分類していることがわかった。
我々は、モデレーション設計がバイナリ有害/害のないスキーマを超えて、センシティブなイベント中にヒューマン・イン・ザ・ループ・レビューを統合し、トレーニングデータに反音声を明示的に含まなければならないと主張している。
- 参考スコア(独自算出の注目度): 0.7209758868768354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anti-sexist speech, i.e., public expressions that challenge or resist gendered abuse and sexism, plays a vital role in shaping democratic debate online. Yet automated content moderation systems, increasingly powered by large language models (LLMs), may struggle to distinguish such resistance from the sexism it opposes. This study examines how five LLMs classify sexist, anti-sexist, and neutral political tweets from the UK, focusing on high-salience trigger events involving female Members of Parliament in the year 2022. Our analysis show that models frequently misclassify anti-sexist speech as harmful, particularly during politically charged events where rhetorical styles of harm and resistance converge. These errors risk silencing those who challenge sexism, with disproportionate consequences for marginalised voices. We argue that moderation design must move beyond binary harmful/not-harmful schemas, integrate human-in-the-loop review during sensitive events, and explicitly include counter-speech in training data. By linking feminist scholarship, event-based analysis, and model evaluation, this work highlights the sociotechnical challenges of safeguarding resistance speech in digital political spaces.
- Abstract(参考訳): 性的虐待や性差別に挑戦または抵抗する公的な表現である反性差別のスピーチは、オンラインで民主的な議論を形成する上で重要な役割を担っている。
しかし、大規模言語モデル(LLM)によってますますパワーアップする自動コンテンツモデレーションシステムは、そのような抵抗と、それに反対する性差別を区別するのに苦労する可能性がある。
本研究は、2022年の女性議員を巻き込んだ高可用性トリガーイベントに焦点を当て、英国における性差別、反性差別、中立的な政治ツイートを5つのLLMが分類する方法を検討する。
分析の結果、特に、修辞的な被害や抵抗のスタイルが収束する政治的に帯電した出来事において、モデルが反セクシズム的スピーチを有害と誤分類することが少なくないことがわかった。
これらの誤りは性差別に異議を唱える人々に危険を及ぼす。
我々は、モデレーション設計がバイナリ有害/害のないスキーマを超えて、センシティブなイベント中にヒューマン・イン・ザ・ループ・レビューを統合し、トレーニングデータに反音声を明示的に含まなければならないと主張している。
フェミニストの奨学金、イベントベースの分析、モデル評価をリンクすることで、デジタル政治空間における抵抗スピーチの保護という社会技術的課題を浮き彫りにする。
関連論文リスト
- HatePRISM: Policies, Platforms, and Research Integration. Advancing NLP for Hate Speech Proactive Mitigation [67.69631485036665]
我々は3つの観点からヘイトスピーチ規制と戦略を総合的に検討する。
以上の結果から,ヘイトスピーチ定義や地域ごとのモデレーション慣行に重大な矛盾があることが判明した。
自動ヘイトスピーチモデレーションのための統合フレームワークのさらなる検討のためのアイデアと研究の方向性を提案する。
論文 参考訳(メタデータ) (2025-07-06T11:25:23Z) - Gender Bias and Property Taxes [50.18156030818883]
我々は、10万人以上の不動産税告訴審理記録と2.7年以上の関連音声記録を分析した。
女性のアパレルは、聴聞会で男性アパレルよりも体系的に劣る。
我々の結果は、性別バイアスは、少なくとも部分的には、ABBパネリストの一部に関する無声の信念と認識によって引き起こされるという考え方と一致している。
論文 参考訳(メタデータ) (2024-12-17T07:14:23Z) - Demarked: A Strategy for Enhanced Abusive Speech Moderation through Counterspeech, Detoxification, and Message Management [71.99446449877038]
本研究では, 重度尺度, (ii) ターゲットの存在, (iii) 文脈尺度, (iv) 法的尺度の4つの側面を基礎として, より包括的手法であるDemarcation scoreing abusive speechを提案する。
本研究は,ネット上での虐待的スピーチを効果的に解決するための今後の戦略を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-27T21:45:33Z) - A multitask learning framework for leveraging subjectivity of annotators to identify misogyny [47.175010006458436]
本研究では,誤識別システムの性能向上を目的としたマルチタスク学習手法を提案する。
6つのプロファイルグループにまたがる性別と年齢を考慮したモデル設計において,アノテータからさまざまな視点を取り入れた。
本研究は、コンテンツモデレーションを推進し、効果的なオンラインモデレーションシステムを構築するための多様な視点を受け入れることの重要性を強調している。
論文 参考訳(メタデータ) (2024-06-22T15:06:08Z) - Harmful Speech Detection by Language Models Exhibits Gender-Queer Dialect Bias [8.168722337906148]
本研究では,ジェンダークェア方言の有害な音声分類におけるバイアスの存在について検討した。
LGBTQ+スラーの非退行的使用を実証する109個のテンプレートに基づく新しいデータセットであるQuierLexを紹介する。
筆者らは,これらのテキストの害評価において,市販の5つの言語モデルの性能を体系的に評価した。
論文 参考訳(メタデータ) (2024-05-23T18:07:28Z) - A Multilingual Perspective on Probing Gender Bias [0.0]
ジェンダーバイアスは、性別に基づいて個人を標的とする体系的なネガティブな治療の一形態である。
この論文は、ジェンダーバイアスが言語および言語技術を通してどのように表現されるかというニュアンスについて考察する。
論文 参考訳(メタデータ) (2024-03-15T21:35:21Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - #ContextMatters: Advantages and Limitations of Using Machine Learning to
Support Women in Politics [0.15749416770494704]
ParityBOTはカナダ、アメリカ合衆国、ニュージーランドで選挙が行われた。
女性候補者に向けられた1200万件以上のツイートを分析して分類し、支持的なツイートで有害なツイートに対処するために使われた。
本研究では,ParityBOTが特定の女性に向けられた侮辱を取り上げなかった偽陰性率について検討した。
論文 参考訳(メタデータ) (2021-09-30T22:55:49Z) - Automatic Detection of Sexist Statements Commonly Used at the Workplace [0.9790236766474201]
職場で言うことが多い性差別的発言のデータセットを提示する。
また,最先端の成果を得られる深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-08T15:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。