論文の概要: Achieve Fairness without Demographics for Dermatological Disease
Diagnosis
- arxiv url: http://arxiv.org/abs/2401.08066v1
- Date: Tue, 16 Jan 2024 02:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 15:27:52.534927
- Title: Achieve Fairness without Demographics for Dermatological Disease
Diagnosis
- Title(参考訳): 皮膚疾患診断のためのデモグラフィーなしのフェアネス
- Authors: Ching-Hao Chiu, Yu-Jen Chen, Yawen Wu, Yiyu Shi, Tsung-Yi Ho
- Abstract要約: そこで本研究では,テストフェーズにおいて,そのような情報を用いることなく,感度特性の公平な予測を可能にする手法を提案する。
特徴の絡み合いが公正性に与える影響を強調した先行研究から着想を得て,重要属性や対象属性に関連する特徴を捉えることにより,モデルの特徴を高める。
これにより、機密属性に関連する機能に頼ることなく、モデルがターゲット属性に関連する機能に基づいてのみ分類できることが保証される。
- 参考スコア(独自算出の注目度): 17.792332189055223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In medical image diagnosis, fairness has become increasingly crucial. Without
bias mitigation, deploying unfair AI would harm the interests of the
underprivileged population and potentially tear society apart. Recent research
addresses prediction biases in deep learning models concerning demographic
groups (e.g., gender, age, and race) by utilizing demographic (sensitive
attribute) information during training. However, many sensitive attributes
naturally exist in dermatological disease images. If the trained model only
targets fairness for a specific attribute, it remains unfair for other
attributes. Moreover, training a model that can accommodate multiple sensitive
attributes is impractical due to privacy concerns. To overcome this, we propose
a method enabling fair predictions for sensitive attributes during the testing
phase without using such information during training. Inspired by prior work
highlighting the impact of feature entanglement on fairness, we enhance the
model features by capturing the features related to the sensitive and target
attributes and regularizing the feature entanglement between corresponding
classes. This ensures that the model can only classify based on the features
related to the target attribute without relying on features associated with
sensitive attributes, thereby improving fairness and accuracy. Additionally, we
use disease masks from the Segment Anything Model (SAM) to enhance the quality
of the learned feature. Experimental results demonstrate that the proposed
method can improve fairness in classification compared to state-of-the-art
methods in two dermatological disease datasets.
- Abstract(参考訳): 医用画像診断では,公平性がますます重要になっている。
偏見の緩和がなければ、不公平なAIを展開すれば、未成年者の利益を損なうことになる。
近年の研究では、学習中の人口統計情報を利用して、人口統計群(性別、年齢、人種など)に関する深層学習モデルの予測バイアスに対処している。
しかし、皮膚疾患の画像には多くの感度特性が自然に存在する。
トレーニングされたモデルが特定の属性に対する公平性のみを目標とする場合、他の属性に対しては不公平である。
さらに、複数の機密属性に対応可能なモデルをトレーニングすることは、プライバシの懸念による現実的ではない。
そこで本研究では,これらの情報を用いずに,テスト段階での感度の高い属性を公平に予測する手法を提案する。
特徴絡みが公正性に与える影響を強調した先行研究から着想を得たモデル特徴は、感度と目標属性に関連する特徴を捕捉し、対応するクラス間の特徴絡みを規則化する。
これにより、モデルが機密属性に関連する機能に頼ることなく、ターゲット属性に関連する機能に基づいてのみ分類できることが保証され、公正性と精度が向上する。
さらに,Segment Anything Model (SAM) の病マスクを用いて,学習した特徴の質を高める。
実験結果から,本手法は2つの皮膚疾患データセットの最先端手法と比較して,分類の公平性を向上できることが示された。
関連論文リスト
- High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Fairness Under Demographic Scarce Regime [7.523105080786704]
フェアネスと精度のトレードオフを改善する属性分類器を構築するためのフレームワークを提案する。
不確実な感度特性を持つ試料に公正性制約を課すことは、公正性-正確性トレードオフに悪影響を及ぼす可能性があることを示す。
我々のフレームワークは、ほとんどのベンチマークで真に敏感な属性に対する公平性制約で訓練されたモデルより優れている。
論文 参考訳(メタデータ) (2023-07-24T19:07:34Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Learning Fair Models without Sensitive Attributes: A Generative Approach [33.196044483534784]
本研究では,関係する特徴を探索することにより,重要属性を含まないフェアモデル学習の新たな課題について検討する。
トレーニングデータから感度特性を効果的に推定する確率的生成フレームワークを提案する。
実世界のデータセットを用いた実験結果から,本フレームワークの有効性が示された。
論文 参考訳(メタデータ) (2022-03-30T15:54:30Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - You Can Still Achieve Fairness Without Sensitive Attributes: Exploring
Biases in Non-Sensitive Features [29.94644351343916]
本稿では,これらの特徴を同時利用して正確な予測とモデルの正則化を行う新しいフレームワークを提案する。
実世界のデータセットにおける実験結果は,提案モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-04-29T17:52:11Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。