論文の概要: On the Impact of Random Seeds on the Fairness of Clinical Classifiers
- arxiv url: http://arxiv.org/abs/2104.06338v1
- Date: Tue, 13 Apr 2021 16:30:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:32:47.480492
- Title: On the Impact of Random Seeds on the Fairness of Clinical Classifiers
- Title(参考訳): ランダム種子が臨床分類者の公正性に及ぼす影響について
- Authors: Silvio Amir and Jan-Willem van de Meent and Byron C. Wallace
- Abstract要約: 電子健康記録上の臨床予測タスクにおける人口統計群間のモデル公平性に対するこの現象の影響を検討する。
また,マイノリティ群の交点や幾らかの希少な条件に固有の小さなサンプルサイズは,差を正確に推定する能力に制限があることを見出した。
- 参考スコア(独自算出の注目度): 27.71610203951057
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent work has shown that fine-tuning large networks is surprisingly
sensitive to changes in random seed(s). We explore the implications of this
phenomenon for model fairness across demographic groups in clinical prediction
tasks over electronic health records (EHR) in MIMIC-III -- the standard dataset
in clinical NLP research. Apparent subgroup performance varies substantially
for seeds that yield similar overall performance, although there is no evidence
of a trade-off between overall and subgroup performance. However, we also find
that the small sample sizes inherent to looking at intersections of minority
groups and somewhat rare conditions limit our ability to accurately estimate
disparities. Further, we find that jointly optimizing for high overall
performance and low disparities does not yield statistically significant
improvements. Our results suggest that fairness work using MIMIC-III should
carefully account for variations in apparent differences that may arise from
stochasticity and small sample sizes.
- Abstract(参考訳): 近年の研究では、微調整の大きなネットワークは驚くほどランダムシードの変化に敏感であることが示されている。
臨床NLP研究の標準データセットであるMIMIC-IIIの電子健康記録(EHR)に対する臨床予測タスクにおいて,この現象が人口集団間でのモデルフェアネスに与える影響を検討する。
同一サブグループのパフォーマンスは、全体のパフォーマンスとサブグループのパフォーマンスのトレードオフを示す証拠はないが、全体のパフォーマンスに類似する種子に対して大きく異なる。
しかし,マイノリティ群の交点や幾らかの希少な条件に固有の小さなサンプルサイズは,不一致を正確に推定する能力に制限があることも判明した。
さらに,高い総合性能と低格差を共同最適化しても統計的に有意な改善は得られない。
以上の結果から,MIMIC-IIIを用いた公正な作業は,確率性や小サンプルサイズから生じる明らかな差異の変動を慎重に考慮すべきであることが示唆された。
関連論文リスト
- How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - GroupMixNorm Layer for Learning Fair Models [4.324785083027206]
本研究では,ディープラーニングモデルからバイアスを緩和するための,内部処理に基づく新しいGroupMixNorm層を提案する。
提案手法は,全体の精度に最小限の影響を伴って,いくつかの公正度測定値を改善する。
論文 参考訳(メタデータ) (2023-12-19T09:04:26Z) - Auditing ICU Readmission Rates in an Clinical Database: An Analysis of
Risk Factors and Clinical Outcomes [0.0]
本研究では,30日間の読解問題における臨床データ分類のための機械学習パイプラインを提案する。
公正監査は、平等機会、予測パリティ、偽陽性率パリティ、偽陰性率パリティ基準の格差を明らかにする。
この研究は、人工知能(AI)システムのバイアスと公平性に対処するために、研究者、政策立案者、実践者の協力的努力の必要性を示唆している。
論文 参考訳(メタデータ) (2023-04-12T17:09:38Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - RegMixup: Mixup as a Regularizer Can Surprisingly Improve Accuracy and
Out Distribution Robustness [94.69774317059122]
学習目的として使うのではなく、標準のクロスエントロピー損失に対する追加の正則化剤として利用すれば、良好なミックスアップの有効性がさらに向上できることが示される。
この単純な変更は、精度を大幅に改善するだけでなく、Mixupの予測不確実性推定の品質を大幅に改善する。
論文 参考訳(メタデータ) (2022-06-29T09:44:33Z) - How does overparametrization affect performance on minority groups? [39.54853544590893]
オーバーパラメータ化は常に少数群のパフォーマンスを改善することを示す。
多数派と少数派の回帰関数が異なる設定では、パラメータ化が常に少数派のパフォーマンスを改善することを示す。
論文 参考訳(メタデータ) (2022-06-07T18:00:52Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Self-Diagnosing GAN: Diagnosing Underrepresented Samples in Generative
Adversarial Networks [5.754152248672317]
本研究では,GAN (Generative Adversarial Networks) のトレーニング中に未表現のサンプルを診断し強調する手法を提案する。
本研究では, 下表の試料が平均差が高いか, ばらつきが高いかの観察から, それらの試料を強調する方法を提案する。
実験により,提案手法は各種データセット上でのGAN性能の向上を実証した。
論文 参考訳(メタデータ) (2021-02-24T02:31:50Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。