論文の概要: FairPrune: Achieving Fairness Through Pruning for Dermatological Disease
Diagnosis
- arxiv url: http://arxiv.org/abs/2203.02110v1
- Date: Fri, 4 Mar 2022 02:57:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 14:42:19.642828
- Title: FairPrune: Achieving Fairness Through Pruning for Dermatological Disease
Diagnosis
- Title(参考訳): FairPrune:皮膚疾患診断のためのプルーニングによるフェアネス獲得
- Authors: Yawen Wu, Dewen Zeng, Xiaowei Xu, Yiyu Shi, Jingtong Hu
- Abstract要約: 刈り取りによる公平性を実現する方法であるFairPruneを提案する。
本研究では,両グループの平均精度を極力高く保ちながら,公平性を著しく向上できることを示す。
- 参考スコア(独自算出の注目度): 17.508632873527525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many works have shown that deep learning-based medical image classification
models can exhibit bias toward certain demographic attributes like race,
gender, and age. Existing bias mitigation methods primarily focus on learning
debiased models, which may not necessarily guarantee all sensitive information
can be removed and usually comes with considerable accuracy degradation on both
privileged and unprivileged groups. To tackle this issue, we propose a method,
FairPrune, that achieves fairness by pruning. Conventionally, pruning is used
to reduce the model size for efficient inference. However, we show that pruning
can also be a powerful tool to achieve fairness. Our observation is that during
pruning, each parameter in the model has different importance for different
groups' accuracy. By pruning the parameters based on this importance
difference, we can reduce the accuracy difference between the privileged group
and the unprivileged group to improve fairness without a large accuracy drop.
To this end, we use the second derivative of the parameters of a pre-trained
model to quantify the importance of each parameter with respect to the model
accuracy for each group. Experiments on two skin lesion diagnosis datasets over
multiple sensitive attributes demonstrate that our method can greatly improve
fairness while keeping the average accuracy of both groups as high as possible.
- Abstract(参考訳): 多くの研究で、深層学習に基づく医療画像分類モデルが人種、性別、年齢といった特定の属性に対するバイアスを示すことが示されている。
既存のバイアス緩和法は主にバイアス付きモデルの学習に重点を置いており、これは必ずしもすべての機密情報が取り除かれることを保証せず、特権群と特権群の両方でかなりの精度の劣化をもたらす可能性がある。
この問題に対処するために,刈り込みによる公平性を実現する手法であるFairPruneを提案する。
従来、プルーニングは効率的な推論のためにモデルサイズを減らすために使われます。
しかし, 刈り取りは公平性を達成するための強力なツールであることを示す。
我々の観察では、刈り取り中に、モデルの各パラメータは異なるグループの精度に対して異なる重要性を持つ。
この重要度差に基づいてパラメータを刈り取ることにより,特権群と非特権群との精度差を低減し,公平性を向上させることができる。
この目的のために、事前学習されたモデルのパラメータの第2微分を用いて、各グループのモデル精度に関する各パラメータの重要性を定量化する。
2つの皮膚病変の診断データセットを複数の敏感な属性上で実験した結果,両群の平均精度を極力高く保ちながら,公平性を大幅に改善できることがわかった。
関連論文リスト
- Fair Distillation: Teaching Fairness from Biased Teachers in Medical Imaging [16.599189934420885]
本研究では,Fair Distillation (FairDi) 法を提案する。
また,FairDiの精度は,既存手法に比べて向上し,グループ別精度も向上した。
FairDiは分類やセグメンテーションなどの様々な医療タスクに適応し、公平なモデルパフォーマンスのための効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-18T16:50:34Z) - Achieving Fairness Through Channel Pruning for Dermatological Disease Diagnosis [18.587384389499768]
我々は,革新的で適応可能なソフトニアネバーロス型チャネルプルーニングフレームワークを提案する。
我々の研究は、刈り取りが公平性を達成するための強力なツールであることを示す。
2つの皮膚病変診断データセットを用いて,本法の有効性を検証した。
論文 参考訳(メタデータ) (2024-05-14T15:04:46Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - FairTune: Optimizing Parameter Efficient Fine Tuning for Fairness in
Medical Image Analysis [15.166588667072888]
医用診断などの倫理的に敏感な応用分野において,頑健なグループフェアネス特性を持つトレーニングモデルが重要である。
高容量のディープラーニングモデルは、すべてのトレーニングデータをほぼ完璧に適合させることができる。
公平性に関してPEFTパラメータの選択を最適化するフレームワークであるFairTuneを提案する。
論文 参考訳(メタデータ) (2023-10-08T07:41:15Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Importance Tempering: Group Robustness for Overparameterized Models [12.559727665706687]
我々は意思決定境界を改善するために重要な誘惑を提案する。
適切に選択された温度が、不均衡な分類のためにマイノリティ崩壊を複雑化することを示す。
実証的な結果として,重要テンパリングを用いたグループ分類作業における最先端の成果が得られた。
論文 参考訳(メタデータ) (2022-09-19T03:41:30Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Selective Classification Can Magnify Disparities Across Groups [89.14499988774985]
選択的分類は平均的精度を向上させることができるが、既存の精度格差を同時に増大させることができる。
禁忌の増大は、一部のグループでのアキュラシーを減少させることもある。
我々は,グループ間で類似のフルカバレッジ精度を実現する分散ロバストモデルを訓練し,選択分類が各グループを均一に改善することを示す。
論文 参考訳(メタデータ) (2020-10-27T08:51:30Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。