論文の概要: Fairness through Feedback: Addressing Algorithmic Misgendering in Automatic Gender Recognition
- arxiv url: http://arxiv.org/abs/2506.02017v1
- Date: Wed, 28 May 2025 07:49:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.783992
- Title: Fairness through Feedback: Addressing Algorithmic Misgendering in Automatic Gender Recognition
- Title(参考訳): フィードバックによるフェアネス:自動ジェンダー認識におけるアルゴリズムミスに対処する
- Authors: Camilla Quaresmini, Giacomo Zanotti,
- Abstract要約: 本稿では,ジェンダー自動認識システムの理論的,実践的な再考を提案する。
我々は、アルゴリズムのミスジェンダーとは異なり、人間と人間のミスジェンダーは再評価と修正の可能性を秘めているという観察に基づいて構築する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic Gender Recognition (AGR) systems are an increasingly widespread application in the Machine Learning (ML) landscape. While these systems are typically understood as detecting gender, they often classify datapoints based on observable features correlated at best with either male or female sex. In addition to questionable binary assumptions, from an epistemological point of view, this is problematic for two reasons. First, there exists a gap between the categories the system is meant to predict (woman versus man) and those onto which their output reasonably maps (female versus male). What is more, gender cannot be inferred on the basis of such observable features. This makes AGR tools often unreliable, especially in the case of non-binary and gender non-conforming people. We suggest a theoretical and practical rethinking of AGR systems. To begin, distinctions are made between sex, gender, and gender expression. Then, we build upon the observation that, unlike algorithmic misgendering, human-human misgendering is open to the possibility of re-evaluation and correction. We suggest that analogous dynamics should be recreated in AGR, giving users the possibility to correct the system's output. While implementing such a feedback mechanism could be regarded as diminishing the system's autonomy, it represents a way to significantly increase fairness levels in AGR. This is consistent with the conceptual change of paradigm that we advocate for AGR systems, which should be understood as tools respecting individuals' rights and capabilities of self-expression and determination.
- Abstract(参考訳): 自動性認識(AGR)システムは機械学習(ML)の分野でますます普及している。
これらのシステムは一般的に性別を検知するものとして理解されているが、男性または女性の性別とよく相関する観察可能な特徴に基づいてデータポイントを分類することが多い。
疑わしい二項仮定に加えて、認識論的観点からも、これは2つの理由から問題となる。
まず、システムが予測するカテゴリー(女性対男)と、出力が合理的にマッピングされるカテゴリー(男性対男)の間にギャップがある。
さらに、このような観察可能な特徴に基づいて性別を推測することはできない。
このため、AGRツールは信頼性が低いことが多く、特に非バイナリやジェンダーの非コンフォーミングな人では特にそうだ。
我々はAGRシステムの理論的および実践的な再考を提案する。
まず、性別、性別、性別の区別を行う。
そして,アルゴリズムのミスジェンダーとは異なり,人間と人間のミスジェンダーは再評価や修正の可能性を秘めている。
我々は,類似のダイナミクスをAGRで再現し,システムの出力を補正する可能性を提案する。
このようなフィードバック機構を実装することは、システムの自律性を低下させると見なすことができるが、これはAGRの公平度を著しく向上させる方法である。
これは、自己表現と決定の能力と個人の権利を尊重するツールとして理解されるべきAGRシステムを支持するパラダイムの概念的変化と一致している。
関連論文リスト
- On the "Illusion" of Gender Bias in Face Recognition: Explaining the Fairness Issue Through Non-demographic Attributes [7.602456562464879]
顔認識システムは、ユーザの性別に基づいて、かなりの精度の差を示す。
顔の属性を効果的にデコレーションし、集約し、バイアスの少ない性別分析を可能にするツールチェーンを提案する。
実験の結果,男女のイメージが特定の属性を共有すると,男女差は消失することがわかった。
論文 参考訳(メタデータ) (2025-01-21T10:21:19Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Hacking a surrogate model approach to XAI [49.1574468325115]
識別されたサブグループがブラックボックスADMシステムから肯定的な決定を下さない場合でも、対応するグループメンバーシップの問題は、必要に応じて低いレベルまで押し下げることができることを示す。
我々のアプローチは、他の代理モデルに容易に一般化できる。
論文 参考訳(メタデータ) (2024-06-24T13:18:02Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Mitigating Gender Bias in Face Recognition Using the von Mises-Fisher
Mixture Model [7.049738935364298]
本研究では,ディープ顔認識ネットワークの性別バイアスについて検討する。
幾何学的考察により、新しいポストプロセッシング手法により性別バイアスを緩和する。
実際、様々なデータセットに関する広範な数値実験は、慎重に選択することで性バイアスが大幅に減少することを示している。
論文 参考訳(メタデータ) (2022-10-24T23:53:56Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。