論文の概要: They, Them, Theirs: Rewriting with Gender-Neutral English
- arxiv url: http://arxiv.org/abs/2102.06788v1
- Date: Fri, 12 Feb 2021 21:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 06:25:54.524280
- Title: They, Them, Theirs: Rewriting with Gender-Neutral English
- Title(参考訳): They, Them, Theirs: Rewriting with Gender-Neutral English
- Authors: Tony Sun, Kellie Webster, Apu Shah, William Yang Wang, Melvin Johnson
- Abstract要約: 私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
- 参考スコア(独自算出の注目度): 56.14842450974887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Responsible development of technology involves applications being inclusive
of the diverse set of users they hope to support. An important part of this is
understanding the many ways to refer to a person and being able to fluently
change between the different forms as needed. We perform a case study on the
singular they, a common way to promote gender inclusion in English. We define a
re-writing task, create an evaluation benchmark, and show how a model can be
trained to produce gender-neutral English with <1% word error rate with no
human-labeled data. We discuss the practical applications and ethical
considerations of the task, providing direction for future work into inclusive
natural language systems.
- Abstract(参考訳): レスポンシブルな技術開発には、サポートを希望する多様なユーザセットを含むアプリケーションが関与する。
この重要な部分は、人を参照する多くの方法を理解し、必要に応じてさまざまな形態を柔軟に変更できるようにすることです。
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
我々は、書き直しタスクを定義し、評価ベンチマークを作成し、人間のラベル付きデータなしで、1%の単語誤り率で性別中立の英語を生成するためにモデルをどのように訓練するかを示す。
本稿では,本課題の実践的応用と倫理的考察について論じ,今後の包括的自然言語システムへの取り組みの方向性について述べる。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Evaluation of Large Language Models: STEM education and Gender Stereotypes [2.1600200859609178]
本稿では,大規模言語モデル(LLM)におけるジェンダーバイアスについて,オープンエンドな実験設計と定量的分析により検討する。
その結果,STEM と非STEM の比率は,チャットGPT が提供した教育パスに大きく差があることがわかった。
論文 参考訳(メタデータ) (2024-06-14T15:42:42Z) - Hi Guys or Hi Folks? Benchmarking Gender-Neutral Machine Translation
with the GeNTE Corpus [15.388894407006852]
機械翻訳(MT)は、しばしば男性やステレオタイプ表現にデフォルトを与える。
本研究は、英語からイタリア語へのジェンダーニュートラル翻訳に重点を置くことで、包括的言語への需要が高まっていることに対処する。
論文 参考訳(メタデータ) (2023-10-08T21:44:00Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - BabySLM: language-acquisition-friendly benchmark of self-supervised
spoken language models [56.93604813379634]
音声表現を学習するための自己指導技術は、人間のラベルを必要とせずに、音声への露出から言語能力を高めることが示されている。
語彙および構文レベルで音声言語モデルを探索するために,言語習得に親しみやすいベンチマークを提案する。
テキストと音声のギャップを埋めることと、クリーンな音声とその内話のギャップを埋めることである。
論文 参考訳(メタデータ) (2023-06-02T12:54:38Z) - Target-Agnostic Gender-Aware Contrastive Learning for Mitigating Bias in
Multilingual Machine Translation [28.471506840241602]
ジェンダーバイアスは機械翻訳において重要な問題であり、バイアス軽減技術の研究が進行中である。
本稿では,新しいアプローチに基づくバイアス緩和手法を提案する。
Gender-Aware Contrastive Learning, GACLは、文脈性情報を非明示性単語の表現にエンコードする。
論文 参考訳(メタデータ) (2023-05-23T12:53:39Z) - She Elicits Requirements and He Tests: Software Engineering Gender Bias
in Large Language Models [17.837267486473415]
本研究では、データマイニング技術を用いて、ソフトウェア開発タスクが暗黙の性別バイアスによってどの程度影響を受けるかを調べる。
我々は、各タスクを英語からジェンダーレス言語に翻訳し、各タスクに関連する代名詞を調査する。
具体的には、要件付与は6%のケースで"he"に関連付けられ、テストは100%のケースで"he"に関連していた。
論文 参考訳(メタデータ) (2023-03-17T17:16:53Z) - INCLUSIFY: A benchmark and a model for gender-inclusive German [0.0]
ジェンダーインクルージョン言語はジェンダーインフレクションを持つ言語においてジェンダー平等を達成するために重要である。
ジェンダーを包含する言語の使用を支援するために、いくつかのツールが開発されている。
ベンチマークのためのデータセットと尺度を示し、これらのタスクを実装するモデルを示す。
論文 参考訳(メタデータ) (2022-12-05T19:37:48Z) - Analyzing Gender Representation in Multilingual Models [59.21915055702203]
実践的なケーススタディとして,ジェンダーの区別の表現に焦点をあてる。
ジェンダーの概念が、異なる言語で共有された部分空間にエンコードされる範囲について検討する。
論文 参考訳(メタデータ) (2022-04-20T00:13:01Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。