論文の概要: Much Ado About Gender: Current Practices and Future Recommendations for
Appropriate Gender-Aware Information Access
- arxiv url: http://arxiv.org/abs/2301.04780v2
- Date: Fri, 13 Jan 2023 23:06:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:35:11.485336
- Title: Much Ado About Gender: Current Practices and Future Recommendations for
Appropriate Gender-Aware Information Access
- Title(参考訳): ジェンダーに関する多くの事柄--性別対応情報アクセスの現状と今後の提言
- Authors: Christine Pinney, Amifa Raj, Alex Hanna, and Michael D. Ekstrand
- Abstract要約: 情報アクセス研究(と開発)は時にジェンダーを利用する。
この研究は、ジェンダーが何であるかの現在の理解と一致していないジェンダーについて様々な仮定を下している。
私たちがレビューするほとんどの論文は、性別が2つのカテゴリに分けることができないことを認めたとしても、性別のバイナリな概念に依存しています。
- 参考スコア(独自算出の注目度): 3.3903891679981593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Information access research (and development) sometimes makes use of gender,
whether to report on the demographics of participants in a user study, as
inputs to personalized results or recommendations, or to make systems
gender-fair, amongst other purposes. This work makes a variety of assumptions
about gender, however, that are not necessarily aligned with current
understandings of what gender is, how it should be encoded, and how a gender
variable should be ethically used. In this work, we present a systematic review
of papers on information retrieval and recommender systems that mention gender
in order to document how gender is currently being used in this field. We find
that most papers mentioning gender do not use an explicit gender variable, but
most of those that do either focus on contextualizing results of model
performance, personalizing a system based on assumptions of user gender, or
auditing a model's behavior for fairness or other privacy-related issues.
Moreover, most of the papers we review rely on a binary notion of gender, even
if they acknowledge that gender cannot be split into two categories. We connect
these findings with scholarship on gender theory and recent work on gender in
human-computer interaction and natural language processing. We conclude by
making recommendations for ethical and well-grounded use of gender in building
and researching information access systems.
- Abstract(参考訳): 情報アクセス研究(および開発)は、時には、ユーザー研究の参加者の人口統計を報告したり、パーソナライズされた結果やレコメンデーションへのインプットとして利用したり、システムにジェンダーフェアを与えるなど、性別を利用する。
しかし、この研究は、ジェンダーとは何か、どのようにエンコードされるべきなのか、そして、性別変数が倫理的にどのように使われるべきかに関する現在の理解と必ずしも一致しているわけではない。
本研究では,ジェンダーが現在どのように使われているかを示すために,ジェンダーに言及する情報検索とレコメンデーションシステムに関する論文を体系的にレビューする。
性別を言及する論文の多くは明確な性別変数を使用しないが、そのほとんどは、モデルパフォーマンスの結果の文脈化、ユーザー性別の仮定に基づくシステムのパーソナライズ、公平性やその他のプライバシー関連の問題に対するモデルの行動の監査に焦点をあてている。
さらに、我々がレビューする論文のほとんどは、性別を2つのカテゴリーに分割することができないことを認めても、性別のバイナリ概念に依存している。
本研究は,人間とコンピュータの相互作用と自然言語処理におけるジェンダーに関する最近の研究と,性理論に関する奨学金と結びつける。
我々は、情報アクセスシステムの構築と研究において、倫理的かつ十分に基礎づけられたジェンダーの利用を推奨することで結論づける。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - Inferring gender from name: a large scale performance evaluation study [4.934579134540613]
研究者は、簡単に利用可能な情報から、主に人物の名前から性別を推測する必要がある。
名前と性別の推論は、アルゴリズムのアプローチとソフトウェア製品の領域を継続的に発展させてきた。
我々は,既存手法を大規模に評価し,名前と性別の推論を行う。
既存のどのアプローチよりも優れたパフォーマンスを実現する2つの新しいハイブリッドアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-22T13:38:45Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Theories of "Gender" in NLP Bias Research [0.0]
NLPにおけるジェンダーバイアスに関する200近い記事を調査した。
記事の大多数は、性別に関する理論を明示していない。
多くの人は、トランス、ノンバイナリ、インターセックスの人々の存在と経験を無視した方法で、性の特徴、社会的性別、言語性について説明している。
論文 参考訳(メタデータ) (2022-05-05T09:20:53Z) - A Survey on Gender Bias in Natural Language Processing [22.91475787277623]
自然言語処理における性別バイアスに関する304論文について調査する。
ジェンダーバイアスの検出と緩和に対するコントラストアプローチの比較を行った。
性別偏見の研究は、4つの中核的な限界に悩まされている。
論文 参考訳(メタデータ) (2021-12-28T14:54:18Z) - Gendered Language in Resumes and its Implications for Algorithmic Bias
in Hiring [0.0]
我々は応募者の性別を分類するために一連のモデルを訓練する。
我々は、履歴書から性別を難読化できるかどうか検討する。
難読化後も履歴書には男女情報が多く存在することが判明した。
論文 参考訳(メタデータ) (2021-12-16T14:26:36Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。