論文の概要: Are demographically invariant models and representations in medical
imaging fair?
- arxiv url: http://arxiv.org/abs/2305.01397v2
- Date: Wed, 16 Aug 2023 08:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 17:01:42.133879
- Title: Are demographically invariant models and representations in medical
imaging fair?
- Title(参考訳): 医療画像における人口動態モデルと表現は公平か?
- Authors: Eike Petersen, Enzo Ferrante, Melanie Ganz, Aasa Feragen
- Abstract要約: 人口統計属性をエンコードしないモデルが望ましいかどうかを問う。
医用画像の公平性には,人口的不変表現は必要ではなく,十分ではないと結論づける。
- 参考スコア(独自算出の注目度): 8.399013213875824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical imaging models have been shown to encode information about patient
demographics such as age, race, and sex in their latent representation, raising
concerns about their potential for discrimination. Here, we ask whether
requiring models not to encode demographic attributes is desirable. We point
out that marginal and class-conditional representation invariance imply the
standard group fairness notions of demographic parity and equalized odds,
respectively, while additionally requiring risk distribution matching, thus
potentially equalizing away important group differences. Enforcing the
traditional fairness notions directly instead does not entail these strong
constraints. Moreover, representationally invariant models may still take
demographic attributes into account for deriving predictions. The latter can be
prevented using counterfactual notions of (individual) fairness or invariance.
We caution, however, that properly defining medical image counterfactuals with
respect to demographic attributes is highly challenging. Finally, we posit that
encoding demographic attributes may even be advantageous if it enables learning
a task-specific encoding of demographic features that does not rely on social
constructs such as 'race' and 'gender.' We conclude that demographically
invariant representations are neither necessary nor sufficient for fairness in
medical imaging. Models may need to encode demographic attributes, lending
further urgency to calls for comprehensive model fairness assessments in terms
of predictive performance across diverse patient groups.
- Abstract(参考訳): 医療画像モデルは、年齢、人種、性別などの患者の人口統計情報を潜伏した表現にエンコードすることが示され、差別の可能性への懸念が高まっている。
ここでは、人口統計特性を符号化しないモデルが望ましいかどうかを問う。
辺縁表現とクラス条件表現の不変性は, それぞれ, 標準群フェアネス概念である人口差パリティと等化オッズを含意すると同時に, リスク分布のマッチングも必要であり, 重要なグループ差を均等化する可能性があることを指摘した。
伝統的なフェアネスの概念を直接強制することは、これらの強い制約を伴わない。
さらに、表現的不変モデルでは、予測を導出するために人口統計学的属性を考慮に入れることができる。
後者は、(個人的)公正性や不変性の反実的概念を用いて予防することができる。
しかし, 人口統計学的特性に関して, 医用画像の正当性を適切に定義することは極めて困難である。
最後に,「人種」や「ジェンダー」といった社会的構造に依存しない特徴のタスク固有のエンコーディングを学べば,人口統計学的属性のエンコーディングが有利になる可能性も示唆する。
医用画像の公平性には,人口的不変表現は必要ではない。
モデルは人口統計学的属性を符号化し、様々な患者集団における予測性能の観点から、包括的なモデルフェアネス評価の要求にさらなる緊急性を与える必要がある。
関連論文リスト
- Using Backbone Foundation Model for Evaluating Fairness in Chest Radiography Without Demographic Data [2.7436483977171333]
本研究の目的は,基礎モデルのバックボーンを埋め込み抽出器として用いることの有効性を検討することである。
我々は,これらのグループを,前処理,内処理,評価など,様々な段階のバイアス軽減に活用することを提案する。
論文 参考訳(メタデータ) (2024-08-28T20:35:38Z) - Leveraging Prototypical Representations for Mitigating Social Bias without Demographic Information [50.29934517930506]
DAFairは、言語モデルにおける社会的バイアスに対処する新しいアプローチである。
偏見を緩和するために、原型的人口統計テキストを活用し、微調整プロセス中に正規化用語を取り入れる。
論文 参考訳(メタデータ) (2024-03-14T15:58:36Z) - Fairness Risks for Group-conditionally Missing Demographics [11.259999688429087]
既存のモデルでは、プライバシー、法的問題、個人の差別に対する恐怖のために実用的でないような、センシティブな特徴の完全な知識が必要である。
提案手法は,多変量オートエンコーダにおいて,グループ条件の欠落した確率を共同学習しながら,感度特性の確率論的衝動による一般フェアネスリスクを増大させる。
論文 参考訳(メタデータ) (2024-02-20T21:49:36Z) - Leveraging Diffusion Perturbations for Measuring Fairness in Computer
Vision [25.414154497482162]
拡散モデルを利用してそのようなデータセットを作成できることを実証する。
マルチクラスの職業分類タスクにおいて,複数の視覚言語モデルをベンチマークする。
非コーカサスラベルで生成された画像は、コーカサスラベルで生成された画像よりも、職業的誤分類率が高いことが判明した。
論文 参考訳(メタデータ) (2023-11-25T19:40:13Z) - Toward responsible face datasets: modeling the distribution of a
disentangled latent space for sampling face images from demographic groups [0.0]
近年、一部の現代の顔認識システムが特定の人口集団を識別できることが明らかにされている。
そこで我々は,StyleGANラテント空間の非交叉射影をモデル化し,サンプリングするための簡単な手法を提案する。
実験の結果、人口集団の組み合わせを効果的に合成できることが示され、同一性は元のトレーニングデータセットと異なることがわかった。
論文 参考訳(メタデータ) (2023-09-15T14:42:04Z) - Bayesian Networks for the robust and unbiased prediction of depression
and its symptoms utilizing speech and multimodal data [65.28160163774274]
我々は,抑うつ,抑うつ症状,および,胸腺で収集された音声,表情,認知ゲームデータから得られる特徴の関連性を把握するためにベイズ的枠組みを適用した。
論文 参考訳(メタデータ) (2022-11-09T14:48:13Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。