論文の概要: FairTune: Optimizing Parameter Efficient Fine Tuning for Fairness in
Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2310.05055v1
- Date: Sun, 8 Oct 2023 07:41:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 13:07:08.480483
- Title: FairTune: Optimizing Parameter Efficient Fine Tuning for Fairness in
Medical Image Analysis
- Title(参考訳): FairTune:医療画像解析におけるフェアネスのための最適パラメータ調整
- Authors: Raman Dutt, Ondrej Bohdal, Sotirios A. Tsaftaris, Timothy Hospedales
- Abstract要約: 医用診断などの倫理的に敏感な応用分野において,頑健なグループフェアネス特性を持つトレーニングモデルが重要である。
高容量のディープラーニングモデルは、すべてのトレーニングデータをほぼ完璧に適合させることができる。
公平性に関してPEFTパラメータの選択を最適化するフレームワークであるFairTuneを提案する。
- 参考スコア(独自算出の注目度): 15.166588667072888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training models with robust group fairness properties is crucial in ethically
sensitive application areas such as medical diagnosis. Despite the growing body
of work aiming to minimise demographic bias in AI, this problem remains
challenging. A key reason for this challenge is the fairness generalisation
gap: High-capacity deep learning models can fit all training data nearly
perfectly, and thus also exhibit perfect fairness during training. In this
case, bias emerges only during testing when generalisation performance differs
across subgroups. This motivates us to take a bi-level optimisation perspective
on fair learning: Optimising the learning strategy based on validation
fairness. Specifically, we consider the highly effective workflow of adapting
pre-trained models to downstream medical imaging tasks using
parameter-efficient fine-tuning (PEFT) techniques. There is a trade-off between
updating more parameters, enabling a better fit to the task of interest vs.
fewer parameters, potentially reducing the generalisation gap. To manage this
tradeoff, we propose FairTune, a framework to optimise the choice of PEFT
parameters with respect to fairness. We demonstrate empirically that FairTune
leads to improved fairness on a range of medical imaging datasets.
- Abstract(参考訳): 医用診断などの倫理的に敏感な応用分野において,頑健なグループフェアネス特性を持つトレーニングモデルは重要である。
AIにおける人口統計バイアスを最小化しようとする動きが増えているにもかかわらず、この問題は依然として困難である。
高容量のディープラーニングモデルは、すべてのトレーニングデータをほぼ完璧に適合させ、トレーニング中に完璧な公正性を示すことができます。
この場合、偏見は、部分群間で一般化性能が異なる場合にのみ現れる。
これは、公正な学習に対する二段階の最適化の視点を取る動機となる: 検証の公平性に基づいた学習戦略の最適化。
具体的には、パラメータ効率細調整(PEFT)技術を用いて、トレーニング済みモデルを下流の医療画像タスクに適応するワークフローを効果的に検討する。
より多くのパラメータの更新、関心のあるタスクへの適合性の向上、パラメータの削減、一般化のギャップの低減など、トレードオフがある。
このトレードオフを管理するために、フェアネスに関するPEFTパラメータの選択を最適化するフレームワークであるFairTuneを提案する。
FairTuneが医療画像データセットの公平性を改善することを実証的に示す。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Fairness via In-Processing in the Over-parameterized Regime: A
Cautionary Tale [15.966815398160742]
MinDiff(ミンディフ)は、機会の平等を達成するための公正な訓練手順である。
我々はMinDiffが制約の少ないモデルに対する公平性を向上するが、過剰制約されたシステムでは効果がないことを示した。
我々は,従来提案されていたL2,早期停止,洪水といった正則化手法をMinDiffと併用して,公正な過制約モデルの訓練を行うことを提案する。
論文 参考訳(メタデータ) (2022-06-29T18:40:35Z) - FairPrune: Achieving Fairness Through Pruning for Dermatological Disease
Diagnosis [17.508632873527525]
刈り取りによる公平性を実現する方法であるFairPruneを提案する。
本研究では,両グループの平均精度を極力高く保ちながら,公平性を著しく向上できることを示す。
論文 参考訳(メタデータ) (2022-03-04T02:57:34Z) - FairBatch: Batch Selection for Model Fairness [28.94276265328868]
モデルフェアネスを改善するための既存の技術は、データ前処理やモデルトレーニングに広範な変更を必要とする。
両レベル最適化のレンズを用いてこの問題に対処する。
バッチ選択アルゴリズムはFairBatchと呼ばれ、この最適化を実装し、顕著な公正度対策をサポートしている。
論文 参考訳(メタデータ) (2020-12-03T04:36:04Z) - A Bandit-Based Algorithm for Fairness-Aware Hyperparameter Optimization [5.337302350000984]
本稿では,帯域幅に基づくフェアネス対応ハイパーパラメータ最適化(HO)アルゴリズムであるFairbandを提案する。
HOにフェアネスの概念を導入することで、現実のMLパイプラインへのフェアネス目標のシームレスかつ効率的な統合を可能にします。
この結果から,Fairbandはパラメータ最適化によって効率よくフェアネスと精度のトレードオフをナビゲートできることが示唆された。
論文 参考訳(メタデータ) (2020-10-07T21:35:16Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。