論文の概要: MisgenderMender: A Community-Informed Approach to Interventions for Misgendering
- arxiv url: http://arxiv.org/abs/2404.14695v1
- Date: Tue, 23 Apr 2024 02:54:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 15:31:26.740246
- Title: MisgenderMender: A Community-Informed Approach to Interventions for Misgendering
- Title(参考訳): MisgenderMender: コミュニティインフォームドアプローチ
- Authors: Tamanna Hossain, Sunipa Dev, Sameer Singh,
- Abstract要約: 間違いを犯し、他人の性別に誤って対処し、深刻な危害を与え、日々の技術に浸透する。
米国におけるジェンダー・ディバースの個人に対する調査を実施することで、ミスジェンダーの介入に関するこの研究の欠如に対処するのはこれが初めてである。
ミスジェンダー, 望ましい解決策, 関連する懸念の頻度に関する調査結果に基づいて, ミスジェンダーの介入タスクと評価データセットであるMisgenderMenderを導入する。
- 参考スコア(独自算出の注目度): 29.480032219310157
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Content Warning: This paper contains examples of misgendering and erasure that could be offensive and potentially triggering. Misgendering, the act of incorrectly addressing someone's gender, inflicts serious harm and is pervasive in everyday technologies, yet there is a notable lack of research to combat it. We are the first to address this lack of research into interventions for misgendering by conducting a survey of gender-diverse individuals in the US to understand perspectives about automated interventions for text-based misgendering. Based on survey insights on the prevalence of misgendering, desired solutions, and associated concerns, we introduce a misgendering interventions task and evaluation dataset, MisgenderMender. We define the task with two sub-tasks: (i) detecting misgendering, followed by (ii) correcting misgendering where misgendering is present in domains where editing is appropriate. MisgenderMender comprises 3790 instances of social media content and LLM-generations about non-cisgender public figures, annotated for the presence of misgendering, with additional annotations for correcting misgendering in LLM-generated text. Using this dataset, we set initial benchmarks by evaluating existing NLP systems and highlighting challenges for future models to address. We release the full dataset, code, and demo at https://tamannahossainkay.github.io/misgendermender/.
- Abstract(参考訳): コンテンツ警告: 本論文は、攻撃的で潜在的に引き起こされる可能性のある、誤解と消去の例を含む。
ミスジェンダー(英: missgendering)とは、他人の性別を誤って対処する行為であり、深刻な危害を与え、日常技術に広く浸透するが、それに対抗するための研究の欠如が顕著である。
我々は、テキストベースの誤認識に対する自動的介入の視点を理解するために、米国におけるジェンダー多様性個人を対象とした調査を行うことにより、誤認識に対する介入に関するこの研究の欠如に対処する最初の人物である。
ミスジェンダー, 望ましい解決策, 関連する懸念の頻度に関する調査結果に基づいて, ミスジェンダーの介入タスクと評価データセットであるMisgenderMenderを導入する。
タスクを2つのサブタスクで定義します。
一 偽造を検知し、次いで
二 編集が適当な領域に誤字が存在する箇所の誤字を訂正すること。
MisgenderMenderは、3790件のソーシャルメディアコンテンツとLLM世代を、非シスジェンダーの公開人物について記述し、誤認の存在を注釈し、LLM生成テキストで誤認を訂正するための追加アノテーションを含む。
このデータセットを用いて、既存のNLPシステムを評価し、将来のモデルに対処する上での課題を強調し、初期ベンチマークを設定した。
完全なデータセット、コード、デモはhttps://tamannahossainkay.github.io/misgendermender/で公開しています。
関連論文リスト
- The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Gender, names and other mysteries: Towards the ambiguous for
gender-inclusive translation [7.322734499960981]
本稿では,元文が明示的なジェンダーマーカーを欠いている場合について考察するが,目的文はより豊かな文法的ジェンダーによってそれらを含む。
MTデータ中の多くの名前と性別の共起は、ソース言語の「あいまいな性別」で解決できないことがわかった。
ジェンダー・インクルージョンの両面での曖昧さを受け入れるジェンダー・インクルージョン・トランスフォーメーションの可能性について論じる。
論文 参考訳(メタデータ) (2023-06-07T16:21:59Z) - MISGENDERED: Limits of Large Language Models in Understanding Pronouns [46.276320374441056]
我々は、英語のジェンダーニュートラル代名詞を正しく活用する能力について、人気言語モデルの評価を行った。
提案するMISGENDEREDは,大言語モデルが好む代名詞を正しく活用する能力を評価するためのフレームワークである。
論文 参考訳(メタデータ) (2023-06-06T18:27:52Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Gender Bias in Text: Labeled Datasets and Lexicons [0.30458514384586394]
性別バイアスの自動検出には、性別バイアスデータセットと語彙の欠如がある。
関連文の収集,注釈付け,拡張によりラベル付きデータセットと網羅的辞書を提供する。
リリースされたデータセットとレキシコンは、Generic He、Generic She、Explicit Marking of Sex、Gendered Neologismsなど、複数のバイアスサブタイプにまたがっている。
論文 参考訳(メタデータ) (2022-01-21T12:44:51Z) - Exploring a Makeup Support System for Transgender Passing based on
Automatic Gender Recognition [12.92294657841358]
日本のような非西洋の文脈におけるトランスジェンダーの実践やニーズをサポートするために、機械学習がいかに適当かを検討する。
私たちは、トランスジェンダーの個人が通過するのを助けるために、仮想メイクプローブを設計しました。
私たちは東京の15の個人にインタビューし、適切な状況と厳しい条件下で、AGRベースのシステムがトランスジェンダーの通過を助けることを発見した。
論文 参考訳(メタデータ) (2021-03-08T04:43:10Z) - Gender Classification and Bias Mitigation in Facial Images [7.438105108643341]
最近の研究では、バイアス付きベンチマークデータベースでトレーニングされたアルゴリズムがアルゴリズムバイアスをもたらす可能性があることが示されている。
顔認証と性別分類タスクのための既存のベンチマークデータベースについて調査を行った。
我々は、分類精度の向上と、拡張ベンチマークデータベースでトレーニングされたベースラインモデルにおけるアルゴリズムバイアスの軽減に取り組みました。
論文 参考訳(メタデータ) (2020-07-13T01:09:06Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。