論文の概要: Harms of Gender Exclusivity and Challenges in Non-Binary Representation
in Language Technologies
- arxiv url: http://arxiv.org/abs/2108.12084v1
- Date: Fri, 27 Aug 2021 01:58:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-30 19:37:33.692509
- Title: Harms of Gender Exclusivity and Challenges in Non-Binary Representation
in Language Technologies
- Title(参考訳): 非言語技術におけるジェンダー排他性と非言語表現の課題
- Authors: Sunipa Dev and Masoud Monajatipoor and Anaelia Ovalle and Arjun
Subramonian and Jeff M Phillips and Kai-Wei Chang
- Abstract要約: 性別と言語の複雑さについて説明する。
性別を二分体として扱うことに伴う被害を理解するために、非二分体を調査する。
- 参考スコア(独自算出の注目度): 30.096268927587214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gender is widely discussed in the context of language tasks and when
examining the stereotypes propagated by language models. However, current
discussions primarily treat gender as binary, which can perpetuate harms such
as the cyclical erasure of non-binary gender identities. These harms are driven
by model and dataset biases, which are consequences of the non-recognition and
lack of understanding of non-binary genders in society. In this paper, we
explain the complexity of gender and language around it, and survey non-binary
persons to understand harms associated with the treatment of gender as binary
in English language technologies. We also detail how current language
representations (e.g., GloVe, BERT) capture and perpetuate these harms and
related challenges that need to be acknowledged and addressed for
representations to equitably encode gender information.
- Abstract(参考訳): ジェンダーは言語タスクの文脈や言語モデルによって伝播されるステレオタイプを調べる際に広く議論される。
しかし、現在の議論では、主に性別を二元性として扱うが、これは非二項性同一性の周期的消去のような危害を持続することができる。
これらの危害は、非認知と社会における非バイナリ性に対する理解の欠如の結果である、モデルとデータセットのバイアスによって引き起こされる。
本稿では,その周辺のジェンダーと言語が複雑化していることを説明し,英語技術におけるジェンダーの扱いにかかわる害を理解するために,非バイナリ人を対象に調査を行う。
また、現在の言語表現(例えばGloVe, BERT)が、性別情報を均等にエンコードする表現のために認識し、対処する必要があるこれらの害や関連する課題を捕捉し、永続する方法について詳述する。
関連論文リスト
- MiTTenS: A Dataset for Evaluating Misgendering in Translation [16.446952262028358]
ミスジェンダー(英: missgendering)とは、性同一性を反映しない方法で誰かを指す行為である。
さまざまな言語ファミリーやスクリプトから26言語をカバーするデータセットMiTTenSを紹介した。
論文 参考訳(メタデータ) (2024-01-13T00:08:23Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Participatory Research as a Path to Community-Informed, Gender-Fair
Machine Translation [19.098548371499678]
本稿では、クイア人や非バイナリ人、翻訳者、MT専門家を含む参加型行動研究のための方法とケーススタディを提案する。
ケーススタディは、アイデンティティの無効化を避けるためにコンテキスト依存の重要性が中心的な発見であるドイツに焦点を当てている。
論文 参考訳(メタデータ) (2023-06-15T07:20:14Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Analyzing Gender Representation in Multilingual Models [59.21915055702203]
実践的なケーススタディとして,ジェンダーの区別の表現に焦点をあてる。
ジェンダーの概念が、異なる言語で共有された部分空間にエンコードされる範囲について検討する。
論文 参考訳(メタデータ) (2022-04-20T00:13:01Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Type B Reflexivization as an Unambiguous Testbed for Multilingual
Multi-Task Gender Bias [5.239305978984572]
我々は,B型回帰型言語の場合,性別バイアスを検出するためにマルチタスクチャレンジデータセットを構築することができることを示した。
これらの言語では「医者がマスクを取り除いた」という直訳は中音読みと不一致読みのあいまいさではない。
4つの言語と4つのNLPタスクにまたがる多言語・マルチタスク課題データセットを提案する。
論文 参考訳(メタデータ) (2020-09-24T23:47:18Z) - Gender in Danger? Evaluating Speech Translation Technology on the
MuST-SHE Corpus [20.766890957411132]
英語のような生産的な文法的なジェンダーのない言語からジェンダーマーク付き言語に翻訳することは、機械にとってよく知られた困難である。
ジェンダーバイアスを減らすために、オーディオは追加情報を提供できるか?
本稿では、音声翻訳における性差に関する最初の徹底的な調査を行い、将来の研究に役立つベンチマークのリリースに寄与する。
論文 参考訳(メタデータ) (2020-06-10T09:55:38Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。