論文の概要: FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification
- arxiv url: http://arxiv.org/abs/2303.08325v1
- Date: Wed, 15 Mar 2023 02:22:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 14:55:18.013354
- Title: FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification
- Title(参考訳): FairAdaBN:適応的バッチ正規化による不公平さの軽減と皮膚疾患分類への応用
- Authors: Zikang Xu, Shang Zhao, Quan Quan, Qingsong Yao, and S. Kevin Zhou
- Abstract要約: バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 14.589159162086926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning is becoming increasingly ubiquitous in medical research and
applications while involving sensitive information and even critical diagnosis
decisions. Researchers observe a significant performance disparity among
subgroups with different demographic attributes, which is called model
unfairness, and put lots of effort into carefully designing elegant
architectures to address unfairness, which poses heavy training burden, brings
poor generalization, and reveals the trade-off between model performance and
fairness. To tackle these issues, we propose FairAdaBN by making batch
normalization adaptive to sensitive attribute. This simple but effective design
can be adopted to several classification backbones that are originally unaware
of fairness. Additionally, we derive a novel loss function that restrains
statistical parity between subgroups on mini-batches, encouraging the model to
converge with considerable fairness. In order to evaluate the trade-off between
model performance and fairness, we propose a new metric, named
Fairness-Accuracy Trade-off Efficiency (FATE), to compute normalized fairness
improvement over accuracy drop. Experiments on two dermatological datasets show
that our proposed method outperforms other methods on fairness criteria and
FATE.
- Abstract(参考訳): 深層学習は、センシティブな情報や重要な診断決定を含む一方で、医学研究やアプリケーションにおいてますます普及している。
研究者たちは、モデル不公平と呼ばれる異なる階層特性を持つサブグループ間での顕著なパフォーマンス格差を観察し、厳密なアーキテクチャを慎重に設計し、トレーニングの重荷を伴い、一般化を損なうとともに、モデルパフォーマンスと公平性のトレードオフを明らかにする。
そこで本研究では,バッチ正規化を高感度属性に適応させることにより,fairadabnを提案する。
この単純だが効果的な設計は、もともと公平を知らないいくつかの分類バックボーンに適用することができる。
さらに、ミニバッチ上の部分群間の統計的パリティを抑える新しい損失関数を導出し、モデルが相当公正に収束するように促す。
モデル性能と公平性の間のトレードオフを評価するために,fate(fairness-accuracy trade-off efficiency)と呼ばれる新しい指標を提案し,精度低下による正規化フェアネス改善を計算する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
関連論文リスト
- On Testing and Comparing Fair classifiers under Data Bias [57.797550855642505]
表現不足とラベルバイアスの公平な分類器の精度と公平性に及ぼす効果について検討した。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in
Regression Machine Learning Problems [0.0]
回帰問題における不公平さの影響を最小限に抑えるため, 正規化(FaiReg)に基づく簡易かつ効果的な手法を提案する。
本手法を,データバランシングと対向訓練という,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減し、また、元の問題の性能を低下させることなく、優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Convex Fairness Constrained Model Using Causal Effect Estimators [6.414055487487486]
説明バイアスを保ちながら差別を除去するFairCEEと呼ばれる新しいモデルを考案する。
回帰および二分分類タスクにおけるFairCEEの効率的な解法を提案する。
論文 参考訳(メタデータ) (2020-02-16T03:40:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。