論文の概要: Positive-Sum Fairness: Leveraging Demographic Attributes to Achieve Fair AI Outcomes Without Sacrificing Group Gains
- arxiv url: http://arxiv.org/abs/2409.19940v1
- Date: Mon, 30 Sep 2024 04:37:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:08:08.901576
- Title: Positive-Sum Fairness: Leveraging Demographic Attributes to Achieve Fair AI Outcomes Without Sacrificing Group Gains
- Title(参考訳): ポジティブ・サム・フェアネス:グループの利益を犠牲にすることなく、公正なAIの成果を達成するために、デモグラフィックの属性を活用する
- Authors: Samia Belhadj, Sanguk Park, Ambika Seth, Hesham Dar, Thijs Kooi,
- Abstract要約: フェアネスの低下は、変化の種類や感度特性の使い方によって有害または有害な可能性があると論じる。
本論では,グループ間の格差が大きくなるようなパフォーマンスの増加が,個々のサブグループのパフォーマンスのコストを伴わない限り許容できる,というポジティブ・サム・フェアネスの概念を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Fairness in medical AI is increasingly recognized as a crucial aspect of healthcare delivery. While most of the prior work done on fairness emphasizes the importance of equal performance, we argue that decreases in fairness can be either harmful or non-harmful, depending on the type of change and how sensitive attributes are used. To this end, we introduce the notion of positive-sum fairness, which states that an increase in performance that results in a larger group disparity is acceptable as long as it does not come at the cost of individual subgroup performance. This allows sensitive attributes correlated with the disease to be used to increase performance without compromising on fairness. We illustrate this idea by comparing four CNN models that make different use of the race attribute in the training phase. The results show that removing all demographic encodings from the images helps close the gap in performance between the different subgroups, whereas leveraging the race attribute as a model's input increases the overall performance while widening the disparities between subgroups. These larger gaps are then put in perspective of the collective benefit through our notion of positive-sum fairness to distinguish harmful from non harmful disparities.
- Abstract(参考訳): 医療AIの公平性は、医療提供の重要な側面としてますます認識されている。
フェアネスに関する以前の作業の多くは、同等のパフォーマンスの重要性を強調していますが、フェアネスの減少は、変化の種類や感度属性の使用方法によって、有害か非有害かのどちらかである、と私たちは主張します。
この目的のために,グループ間の格差が大きくなるようなパフォーマンスの増加は,個々のサブグループのパフォーマンスのコストを伴わない限り受け入れられる,というポジティブサムフェアネスの概念を導入する。
これにより、公平さを損なうことなく、病気と相関した感度な属性を使用してパフォーマンスを向上させることができる。
トレーニングフェーズにおけるレース属性の異なる4つのCNNモデルを比較することで、このアイデアを説明する。
その結果、画像から全ての階層エンコーディングを除去することは、異なるサブグループ間のパフォーマンスのギャップを埋めるのに役立ち、一方、レース属性をモデル入力として活用することで、サブグループ間の格差を広げながら全体的なパフォーマンスを高めることがわかった。
これらの大きなギャップは、有害な非有害な格差と区別するために、ポジティブ・サム・フェアネスという概念を通じて、集団的な利益を考慮に入れられる。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Group fairness without demographics using social networks [29.073125057536014]
グループフェアネス(英: Group Fairness)は、人種、性別、障害などのセンシティブな属性に基づいて、個人の好ましくない扱いを防止するための一般的なアプローチである。
そこで本稿では, センシティブな属性に依存しないフェアネスの「グループフリー」尺度を提案する。
論文 参考訳(メタデータ) (2023-05-19T00:45:55Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Leveling Down in Computer Vision: Pareto Inefficiencies in Fair Deep
Classifiers [38.33762469290228]
コンピュータビジョンに既存の公平性アプローチを適用することにより、すべてのグループで分類器の性能を劣化させることで、公平性を向上させることが判明した。
本稿では,不備なグループのパフォーマンスを一意的に向上させる適応的拡張戦略を提案する。
論文 参考訳(メタデータ) (2022-03-09T17:48:33Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Parity-based Cumulative Fairness-aware Boosting [7.824964622317634]
データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
論文 参考訳(メタデータ) (2022-01-04T14:16:36Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。