論文の概要: Fairness for Unobserved Characteristics: Insights from Technological
Impacts on Queer Communities
- arxiv url: http://arxiv.org/abs/2102.04257v2
- Date: Tue, 9 Feb 2021 21:04:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:33:04.262414
- Title: Fairness for Unobserved Characteristics: Insights from Technological
Impacts on Queer Communities
- Title(参考訳): 未観測特性の公正性:クエリーコミュニティの技術的影響から
- Authors: Nenad Tomasev, Kevin R. McKee, Jackie Kay, Shakir Mohamed
- Abstract要約: 性的指向と性同一性は、観察されない特性の原型例である。
アルゴリズム的公平性に対する新しいアプローチは、観測される特性の一般的な仮定から切り離される。
- 参考スコア(独自算出の注目度): 7.485814345656486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in algorithmic fairness have largely omitted sexual orientation and
gender identity. We explore queer concerns in privacy, censorship, language,
online safety, health, and employment to study the positive and negative
effects of artificial intelligence on queer communities. These issues
underscore the need for new directions in fairness research that take into
account a multiplicity of considerations, from privacy preservation, context
sensitivity and process fairness, to an awareness of sociotechnical impact and
the increasingly important role of inclusive and participatory research
processes. Most current approaches for algorithmic fairness assume that the
target characteristics for fairness--frequently, race and legal gender--can be
observed or recorded. Sexual orientation and gender identity are prototypical
instances of unobserved characteristics, which are frequently missing, unknown
or fundamentally unmeasurable. This paper highlights the importance of
developing new approaches for algorithmic fairness that break away from the
prevailing assumption of observed characteristics.
- Abstract(参考訳): アルゴリズム的公平性の進歩は、性的指向と性同一性をほとんど省略している。
プライバシ,検閲,言語,オンライン安全,健康,雇用におけるクイアーの懸念を調査し,クイアーコミュニティに対する人工知能の肯定的および否定的な影響について検討する。
これらの問題は、プライバシの保存、コンテキストの感度、プロセスの公平性、社会技術的影響の認識、包括的および参加的研究プロセスの重要役割など、多くの考慮事項を考慮した公正研究における新たな方向性の必要性を核としています。
現在のアルゴリズム的公平性に対するほとんどのアプローチは、フェアネスのターゲット特性(しばしば人種と法的なジェンダー)を観察または記録できると仮定している。
性的指向と性同一性は観察されていない特徴の原型的例であり、しばしば欠落、不明、または基本的に測定できない。
本稿では,観測特性の前提から外れたアルゴリズム的公正性のための新しいアプローチを開発することの重要性を強調する。
関連論文リスト
- Improving Bias in Facial Attribute Classification: A Combined Impact of KL Divergence induced Loss Function and Dual Attention [3.5527561584422465]
初期のシステムは、特に性別や人種の分類において、しばしば人口統計上の偏見を示しており、肌の色合いが暗い女性や個人の精度は低かった。
本稿では,KL分割正規化とクロスエントロピー損失関数によって強化された,事前学習型Inception-ResNet V1モデルを用いた二重注意機構を用いた手法を提案する。
実験の結果,公正度と分類精度の両面で有意な改善が見られ,偏見に対処し,顔認識システムの信頼性を高めることが期待できる。
論文 参考訳(メタデータ) (2024-10-15T01:29:09Z) - Toward Fairer Face Recognition Datasets [69.04239222633795]
顔認識と検証は、ディープ表現の導入によってパフォーマンスが向上したコンピュータビジョンタスクである。
実際のトレーニングデータセットにおける顔データとバイアスのセンシティブな性格による倫理的、法的、技術的な課題は、彼らの開発を妨げる。
生成されたトレーニングデータセットに階層属性のバランス機構を導入することにより、公平性を促進する。
論文 参考訳(メタデータ) (2024-06-24T12:33:21Z) - Fair Models in Credit: Intersectional Discrimination and the
Amplification of Inequity [5.333582981327497]
筆者らはマイクロファイナンス・コンテキストにおけるそのようなアルゴリズムバイアスの影響を実証した。
法的に保護された特徴に加えて、単一親状態や子供の数などの敏感な属性は、不均衡な害をもたらすことが判明した。
論文 参考訳(メタデータ) (2023-08-01T10:34:26Z) - Fair Decision-making Under Uncertainty [1.5688552250473473]
公平性制約を考慮した縦断的検閲学習問題について検討する。
検閲情報を含む新たに考案された公正概念と,検閲の存在下での公正な予測のための一般的な枠組みが,不確実性の下での計測と差別を可能にしていることを示す。
論文 参考訳(メタデータ) (2023-01-29T05:42:39Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。