論文の概要: Are demographically invariant models and representations in medical
imaging fair?
- arxiv url: http://arxiv.org/abs/2305.01397v1
- Date: Tue, 2 May 2023 13:16:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 14:27:06.109275
- Title: Are demographically invariant models and representations in medical
imaging fair?
- Title(参考訳): 医療画像における人口動態モデルと表現は公平か?
- Authors: Eike Petersen, Enzo Ferrante, Melanie Ganz, Aasa Feragen
- Abstract要約: 医療画像モデルは、患者の人口統計情報を、その潜伏した表現にエンコードすることが示されている。
人口統計属性をエンコードしないモデルを訓練することは可能か、望ましいのかを問う。
医療画像モデルは、人口統計特性を符号化し、モデルフェアネスアセスメントの呼び出しにさらなる緊急性を与える必要があると結論付けている。
- 参考スコア(独自算出の注目度): 4.692435426913715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical imaging models have been shown to encode information about patient
demographics (age, race, sex) in their latent representation, raising concerns
about their potential for discrimination. Here, we ask whether it is feasible
and desirable to train models that do not encode demographic attributes. We
consider different types of invariance with respect to demographic attributes -
marginal, class-conditional, and counterfactual model invariance - and lay out
their equivalence to standard notions of algorithmic fairness. Drawing on
existing theory, we find that marginal and class-conditional invariance can be
considered overly restrictive approaches for achieving certain fairness
notions, resulting in significant predictive performance losses. Concerning
counterfactual model invariance, we note that defining medical image
counterfactuals with respect to demographic attributes is fraught with
complexities. Finally, we posit that demographic encoding may even be
considered advantageous if it enables learning a task-specific encoding of
demographic features that does not rely on human-constructed categories such as
'race' and 'gender'. We conclude that medical imaging models may need to encode
demographic attributes, lending further urgency to calls for comprehensive
model fairness assessments in terms of predictive performance.
- Abstract(参考訳): 医療画像モデルは、患者人口(年齢、人種、性別)に関する情報を潜伏した表現にエンコードすることが示され、差別の可能性への懸念が高まっている。
ここでは、人口統計属性をエンコードしないモデルを訓練することは可能かどうかを問う。
統計学的属性、クラス条件、および反事実モデルの不変性に関して異なるタイプの不変性を検討し、アルゴリズム的公平性の標準概念と等価性を記述する。
既存の理論を参考にすると、限界とクラス条件の不変性は特定の公平性概念を達成するために過度に制限的なアプローチと考えることができ、結果として重大な予測性能の損失をもたらす。
反事実モデル不変性については,人口特性に関する医療画像の反事実の定義が複雑化している点に留意する。
最後に,「人種」や「ジェンダー」といった人為的なカテゴリーに依存しない階層的特徴のタスク固有の符号化を学べば,人口動態の符号化は有利であると考えられる。
医療画像モデルは人口動態をエンコードし、予測性能の観点から総合的モデルフェアネス評価の要求にさらに緊急性を与える必要があると結論づけた。
関連論文リスト
- Using Backbone Foundation Model for Evaluating Fairness in Chest Radiography Without Demographic Data [2.7436483977171333]
本研究の目的は,基礎モデルのバックボーンを埋め込み抽出器として用いることの有効性を検討することである。
我々は,これらのグループを,前処理,内処理,評価など,様々な段階のバイアス軽減に活用することを提案する。
論文 参考訳(メタデータ) (2024-08-28T20:35:38Z) - Leveraging Prototypical Representations for Mitigating Social Bias without Demographic Information [50.29934517930506]
DAFairは、言語モデルにおける社会的バイアスに対処する新しいアプローチである。
偏見を緩和するために、原型的人口統計テキストを活用し、微調整プロセス中に正規化用語を取り入れる。
論文 参考訳(メタデータ) (2024-03-14T15:58:36Z) - Fairness Risks for Group-conditionally Missing Demographics [11.259999688429087]
既存のモデルでは、プライバシー、法的問題、個人の差別に対する恐怖のために実用的でないような、センシティブな特徴の完全な知識が必要である。
提案手法は,多変量オートエンコーダにおいて,グループ条件の欠落した確率を共同学習しながら,感度特性の確率論的衝動による一般フェアネスリスクを増大させる。
論文 参考訳(メタデータ) (2024-02-20T21:49:36Z) - Leveraging Diffusion Perturbations for Measuring Fairness in Computer
Vision [25.414154497482162]
拡散モデルを利用してそのようなデータセットを作成できることを実証する。
マルチクラスの職業分類タスクにおいて,複数の視覚言語モデルをベンチマークする。
非コーカサスラベルで生成された画像は、コーカサスラベルで生成された画像よりも、職業的誤分類率が高いことが判明した。
論文 参考訳(メタデータ) (2023-11-25T19:40:13Z) - Toward responsible face datasets: modeling the distribution of a
disentangled latent space for sampling face images from demographic groups [0.0]
近年、一部の現代の顔認識システムが特定の人口集団を識別できることが明らかにされている。
そこで我々は,StyleGANラテント空間の非交叉射影をモデル化し,サンプリングするための簡単な手法を提案する。
実験の結果、人口集団の組み合わせを効果的に合成できることが示され、同一性は元のトレーニングデータセットと異なることがわかった。
論文 参考訳(メタデータ) (2023-09-15T14:42:04Z) - Bayesian Networks for the robust and unbiased prediction of depression
and its symptoms utilizing speech and multimodal data [65.28160163774274]
我々は,抑うつ,抑うつ症状,および,胸腺で収集された音声,表情,認知ゲームデータから得られる特徴の関連性を把握するためにベイズ的枠組みを適用した。
論文 参考訳(メタデータ) (2022-11-09T14:48:13Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。