論文の概要: Fairness for Unobserved Characteristics: Insights from Technological
Impacts on Queer Communities
- arxiv url: http://arxiv.org/abs/2102.04257v2
- Date: Tue, 9 Feb 2021 21:04:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:33:04.262414
- Title: Fairness for Unobserved Characteristics: Insights from Technological
Impacts on Queer Communities
- Title(参考訳): 未観測特性の公正性:クエリーコミュニティの技術的影響から
- Authors: Nenad Tomasev, Kevin R. McKee, Jackie Kay, Shakir Mohamed
- Abstract要約: 性的指向と性同一性は、観察されない特性の原型例である。
アルゴリズム的公平性に対する新しいアプローチは、観測される特性の一般的な仮定から切り離される。
- 参考スコア(独自算出の注目度): 7.485814345656486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in algorithmic fairness have largely omitted sexual orientation and
gender identity. We explore queer concerns in privacy, censorship, language,
online safety, health, and employment to study the positive and negative
effects of artificial intelligence on queer communities. These issues
underscore the need for new directions in fairness research that take into
account a multiplicity of considerations, from privacy preservation, context
sensitivity and process fairness, to an awareness of sociotechnical impact and
the increasingly important role of inclusive and participatory research
processes. Most current approaches for algorithmic fairness assume that the
target characteristics for fairness--frequently, race and legal gender--can be
observed or recorded. Sexual orientation and gender identity are prototypical
instances of unobserved characteristics, which are frequently missing, unknown
or fundamentally unmeasurable. This paper highlights the importance of
developing new approaches for algorithmic fairness that break away from the
prevailing assumption of observed characteristics.
- Abstract(参考訳): アルゴリズム的公平性の進歩は、性的指向と性同一性をほとんど省略している。
プライバシ,検閲,言語,オンライン安全,健康,雇用におけるクイアーの懸念を調査し,クイアーコミュニティに対する人工知能の肯定的および否定的な影響について検討する。
これらの問題は、プライバシの保存、コンテキストの感度、プロセスの公平性、社会技術的影響の認識、包括的および参加的研究プロセスの重要役割など、多くの考慮事項を考慮した公正研究における新たな方向性の必要性を核としています。
現在のアルゴリズム的公平性に対するほとんどのアプローチは、フェアネスのターゲット特性(しばしば人種と法的なジェンダー)を観察または記録できると仮定している。
性的指向と性同一性は観察されていない特徴の原型的例であり、しばしば欠落、不明、または基本的に測定できない。
本稿では,観測特性の前提から外れたアルゴリズム的公正性のための新しいアプローチを開発することの重要性を強調する。
関連論文リスト
- A Tutorial On Intersectionality in Fair Rankings [1.4883782513177093]
バイアスは、データ駆動の世界で差別的な結果をもたらす可能性がある。
責任あるデータサイエンスと責任ある人工知能への取り組みは、これらのバイアスを軽減することを目指している。
論文 参考訳(メタデータ) (2025-02-07T21:14:21Z) - On the "Illusion" of Gender Bias in Face Recognition: Explaining the Fairness Issue Through Non-demographic Attributes [7.602456562464879]
顔認識システムは、ユーザの性別に基づいて、かなりの精度の差を示す。
顔の属性を効果的にデコレーションし、集約し、バイアスの少ない性別分析を可能にするツールチェーンを提案する。
実験の結果,男女のイメージが特定の属性を共有すると,男女差は消失することがわかった。
論文 参考訳(メタデータ) (2025-01-21T10:21:19Z) - Toward Fairer Face Recognition Datasets [69.04239222633795]
顔認識と検証は、ディープ表現の導入によってパフォーマンスが向上したコンピュータビジョンタスクである。
実際のトレーニングデータセットにおける顔データとバイアスのセンシティブな性格による倫理的、法的、技術的な課題は、彼らの開発を妨げる。
生成されたトレーニングデータセットに階層属性のバランス機構を導入することにより、公平性を促進する。
論文 参考訳(メタデータ) (2024-06-24T12:33:21Z) - Fair Models in Credit: Intersectional Discrimination and the
Amplification of Inequity [5.333582981327497]
筆者らはマイクロファイナンス・コンテキストにおけるそのようなアルゴリズムバイアスの影響を実証した。
法的に保護された特徴に加えて、単一親状態や子供の数などの敏感な属性は、不均衡な害をもたらすことが判明した。
論文 参考訳(メタデータ) (2023-08-01T10:34:26Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。