論文の概要: Imputation Strategies Under Clinical Presence: Impact on Algorithmic
Fairness
- arxiv url: http://arxiv.org/abs/2208.06648v1
- Date: Sat, 13 Aug 2022 13:34:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:08:46.976812
- Title: Imputation Strategies Under Clinical Presence: Impact on Algorithmic
Fairness
- Title(参考訳): 臨床研究におけるImputation Strategies : アルゴリズムフェアネスへの影響
- Authors: Vincent Jeanselme, Maria De-Arteaga, Zhe Zhang, Jessica Barrett and
Brian Tom
- Abstract要約: 計算が下流アルゴリズムの公平性にどのように影響するかを考察する。
計算戦略が常に格差を減らさないことを示す。
機械学習パイプラインの無視されたステップから生じる不等式を緩和するための推奨事項を提案する。
- 参考スコア(独自算出の注目度): 6.218860613388414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biases have marked medical history, leading to unequal care affecting
marginalised groups. The patterns of missingness in observational data often
reflect these group discrepancies, but the algorithmic fairness implications of
group-specific missingness are not well understood. Despite its potential
impact, imputation is too often a forgotten preprocessing step. At best,
practitioners guide imputation choice by optimising overall performance,
ignoring how this preprocessing can reinforce inequities. Our work questions
this choice by studying how imputation affects downstream algorithmic fairness.
First, we provide a structured view of the relationship between clinical
presence mechanisms and group-specific missingness patterns. Then, through
simulations and real-world experiments, we demonstrate that the imputation
choice influences marginalised group performance and that no imputation
strategy consistently reduces disparities. Importantly, our results show that
current practices may endanger health equity as similarly performing imputation
strategies at the population level can affect marginalised groups in different
ways. Finally, we propose recommendations for mitigating inequity stemming from
a neglected step of the machine learning pipeline.
- Abstract(参考訳): 偏りは医療史を際立たせ、辺境の集団に不平等なケアをもたらす。
観測データに欠落するパターンはしばしばこれらのグループ不一致を反映するが、グループ固有の欠落のアルゴリズム的公正さはよく理解されていない。
潜在的な影響にもかかわらず、インプテーションは忘れ去られた前処理のステップであることが多い。
ほとんどの場合、実践者は全体的なパフォーマンスを最適化することでインプテーションの選択をガイドし、この前処理が不平等をいかに強化するかを無視する。
我々の研究は、計算が下流のアルゴリズムの公正性にどのように影響するかを研究することで、この選択に疑問を投げかける。
まず, 臨床的存在メカニズムとグループ特有の欠如パターンとの関係について構造化した見解を示す。
そして,シミュレーションや実世界の実験を通じて,計算選択がグループ性能に悪影響を及ぼし,計算戦略が相違を連続的に減少させることを実証する。
また,本研究の結果から,人口レベルでのインキュベーション戦略の実施が,異なる方法による疎外化集団に影響を及ぼすことが示唆された。
最後に、機械学習パイプラインの無視されたステップから生じる不等式を緩和するための推奨事項を提案する。
関連論文リスト
- DispaRisk: Auditing Fairness Through Usable Information [21.521208250966918]
DispaRiskは、マシンラーニングパイプラインの初期段階におけるデータセットの格差の潜在的なリスクを評価するために設計されたフレームワークである。
DispaRiskは、差別のリスクの高いデータセットを特定し、MLパイプライン内のバイアスが発生しやすいモデルファミリーを検出し、これらのバイアスリスクの説明可能性を高める。
この研究は、早期バイアス検出と緩和のための堅牢なツールを提供することにより、より公平なMLシステムの開発に寄与する。
論文 参考訳(メタデータ) (2024-05-20T20:56:01Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - On The Impact of Machine Learning Randomness on Group Fairness [11.747264308336012]
ニューラルネットワークのトレーニングにおけるランダム性の異なる源の群フェアネスへの影響について検討する。
グループフェアネス尺度のばらつきは、非表現群における学習過程の高ボラティリティに根ざしていることを示す。
一つのエポックに対してデータ順序を変更するだけで、モデル全体の性能に高い効率と無視可能な影響でグループレベルの精度を制御できることを示す。
論文 参考訳(メタデータ) (2023-07-09T09:36:31Z) - To Impute or not to Impute? -- Missing Data in Treatment Effect
Estimation [84.76186111434818]
我々は,MCM(Mixed Con founded missingness)と呼ばれる新しい欠損機構を同定し,ある欠損度が治療選択を判断し,他の欠損度が治療選択によって決定されることを示した。
本研究は,全てのデータを因果的に入力すると,不偏推定を行うために必要な情報を効果的に除去するので,処理効果のモデルが貧弱になることを示す。
私たちのソリューションは選択的計算であり、CMMからの洞察を使って、どの変数をインプットすべきで、どの変数をインプットすべきでないかを正確に知らせる。
論文 参考訳(メタデータ) (2022-02-04T12:08:31Z) - SurvITE: Learning Heterogeneous Treatment Effects from Time-to-Event
Data [83.50281440043241]
時系列データから不均一な処理効果を推定する問題について検討する。
本稿では,バランス表現に基づく治療特異的ハザード推定のための新しいディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T20:13:17Z) - TRAPDOOR: Repurposing backdoors to detect dataset bias in machine
learning-based genomic analysis [15.483078145498085]
データセット内のグループの下位表現は、特定のグループの不正確な予測につながる可能性があるため、システム的識別問題を悪化させる可能性がある。
本稿では,ニューラルネットワークのバックドアであるTRAPDOORを提案する。
実世界のがんデータセットを用いて、すでに白人個人に対して存在するバイアスでデータセットを分析し、データセットにバイアスを人工的に導入する。
論文 参考訳(メタデータ) (2021-08-14T17:02:02Z) - Doing Great at Estimating CATE? On the Neglected Assumptions in
Benchmark Comparisons of Treatment Effect Estimators [91.3755431537592]
もっとも単純な設定であっても、無知性仮定に基づく推定は誤解を招く可能性があることを示す。
異種処理効果評価のための機械学習ベンチマークデータセットを2つ検討した。
ベンチマークデータセットの固有の特性が、他のものよりもいくつかのアルゴリズムを好んでいる点を強調します。
論文 参考訳(メタデータ) (2021-07-28T13:21:27Z) - Fair Classification with Group-Dependent Label Noise [6.324366770332667]
本研究は,学習ラベルがランダムノイズで破損した環境で,公平な分類器を訓練する方法を検討する。
異種・集団依存の誤差率を考慮せずに、人口格差尺度にパリティ制約を鼻で課すことにより、その結果の精度と公平性を低下させることができることを示す。
論文 参考訳(メタデータ) (2020-10-31T22:35:01Z) - Targeted VAE: Variational and Targeted Learning for Causal Inference [39.351088248776435]
観測データによる因果推論は、幅広いタスクで非常に有用である。
観察データを用いた因果推論の実施には,2つの重要な課題がある。
構造化推論とターゲット学習を組み合わせることで、これらの2つの課題に対処する。
論文 参考訳(メタデータ) (2020-09-28T16:55:24Z) - Generalization Bounds and Representation Learning for Estimation of
Potential Outcomes and Causal Effects [61.03579766573421]
代替薬に対する患者一人の反応など,個人レベルの因果効果の推定について検討した。
我々は,表現の誘導的処理群距離を正規化することにより,境界を最小化する表現学習アルゴリズムを考案した。
これらのアルゴリズムを拡張して、重み付き表現を同時に学習し、治療群距離をさらに削減する。
論文 参考訳(メタデータ) (2020-01-21T10:16:33Z) - Learning Overlapping Representations for the Estimation of
Individualized Treatment Effects [97.42686600929211]
観測データから代替案の可能性を推定することは難しい問題である。
入力のドメイン不変表現を学習するアルゴリズムは、しばしば不適切であることを示す。
我々は,様々なベンチマークデータセットの最先端性を大幅に向上させる,ディープカーネル回帰アルゴリズムと後続正規化フレームワークを開発した。
論文 参考訳(メタデータ) (2020-01-14T12:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。