論文の概要: Maintaining fairness across distribution shift: do we have viable
solutions for real-world applications?
- arxiv url: http://arxiv.org/abs/2202.01034v1
- Date: Wed, 2 Feb 2022 13:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 18:10:46.295392
- Title: Maintaining fairness across distribution shift: do we have viable
solutions for real-world applications?
- Title(参考訳): 分散シフトの公平性を維持する: 現実のアプリケーションに実行可能なソリューションはあるか?
- Authors: Jessica Schrouff and Natalie Harris and Oluwasanmi Koyejo and Ibrahim
Alabdulmohsin and Eva Schnider and Krista Opsahl-Ong and Alex Brown and
Subhrajit Roy and Diana Mincu and Christina Chen and Awa Dieng and Yuan Liu
and Vivek Natarajan and Alan Karthikesalingam and Katherine Heller and Silvia
Chiappa and Alexander D'Amour
- Abstract要約: 公平性は分布シフトの下で必ずしも維持されないことを示す。
実世界の応用は複雑であり、しばしばそのような手法の仮定を無効にする。
- 参考スコア(独自算出の注目度): 60.44405686433434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness and robustness are often considered as orthogonal dimensions when
evaluating machine learning models. However, recent work has revealed
interactions between fairness and robustness, showing that fairness properties
are not necessarily maintained under distribution shift. In healthcare
settings, this can result in e.g. a model that performs fairly according to a
selected metric in "hospital A" showing unfairness when deployed in "hospital
B". While a nascent field has emerged to develop provable fair and robust
models, it typically relies on strong assumptions about the shift, limiting its
impact for real-world applications. In this work, we explore the settings in
which recently proposed mitigation strategies are applicable by referring to a
causal framing. Using examples of predictive models in dermatology and
electronic health records, we show that real-world applications are complex and
often invalidate the assumptions of such methods. Our work hence highlights
technical, practical, and engineering gaps that prevent the development of
robustly fair machine learning models for real-world applications. Finally, we
discuss potential remedies at each step of the machine learning pipeline.
- Abstract(参考訳): 公平性とロバスト性はしばしば機械学習モデルを評価する際の直交次元と見なされる。
しかし,近年の研究では,フェアネスとロバストネスの相互作用が明らかにされ,分布シフト下でフェアネス特性が維持されるとは限らない。
医療環境では、例えば、"hospital b" でデプロイされた場合の不公平さを示す "hospital a" で選択された指標に従って、公平に動作するモデルになる可能性がある。
証明可能な公正で堅牢なモデルを開発する分野が登場したが、一般的にはシフトに関する強い仮定に依存し、現実世界のアプリケーションへの影響を制限する。
本研究では,最近提案されている緩和戦略が適用可能な設定について,因果的フレーミングを参照して検討する。
皮膚科と電子健康記録における予測モデルの例を用いて,実世界の応用は複雑であり,その仮定を無効にすることが多いことを示した。
私たちの研究は、現実のアプリケーションのための堅牢で公正な機械学習モデルの開発を妨げる、技術的、実践的、および工学的なギャップを強調します。
最後に、機械学習パイプラインの各ステップにおける潜在的な改善について議論する。
関連論文リスト
- Navigating Distribution Shifts in Medical Image Analysis: A Survey [23.012651270865707]
本稿では,分散シフトの影響を受け,深層学習手法をMedIAシステムに適用するアプローチを体系的にレビューする。
既存の作業は、共同トレーニング、フェデレートラーニング、ファインチューニング、ドメインジェネリゼーションに分類する。
これらのトピックを深く掘り下げることで、今後の研究の道筋が浮かび上がる。
論文 参考訳(メタデータ) (2024-11-05T08:01:16Z) - Diagnostic Runtime Monitoring with Martingales [18.539691181328244]
本稿では,複数のマーチンガレットを同時に配置することで,ストリーミング方式で分散シフトを診断するための新しいフレームワークを提案する。
分散シフトの根底にある原因に関する知識は、デプロイされたシステムのライフサイクルに対する適切な介入につながる可能性があることを示す。
論文 参考訳(メタデータ) (2024-07-31T17:05:10Z) - FedMedICL: Towards Holistic Evaluation of Distribution Shifts in Federated Medical Imaging [68.6715007665896]
FedMedICLは統合されたフレームワークであり、フェデレートされた医療画像の課題を全体評価するためのベンチマークである。
6種類の医用画像データセットについて,いくつかの一般的な手法を総合的に評価した。
単純なバッチ分散手法はFedMedICL実験全体の平均性能において,高度な手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-07-11T19:12:23Z) - Shifting Focus: From Global Semantics to Local Prominent Features in Swin-Transformer for Knee Osteoarthritis Severity Assessment [42.09313885494969]
我々はSwin Transformerの能力を利用して階層的な枠組みを通じて画像内の空間的依存関係を識別する。
我々の新しい貢献は、局所的な特徴表現を精細化し、分類器の最終的な分布に特化することにある。
Knee osteoArthritis (KOA) グレード分類のための2つの確立されたベンチマークを広範囲に検証した結果,本モデルは有意な堅牢性と精度を示した。
論文 参考訳(メタデータ) (2024-03-15T01:09:58Z) - Proxy Methods for Domain Adaptation [78.03254010884783]
プロキシ変数は、遅延変数を明示的にリカバリしたりモデル化したりすることなく、分散シフトへの適応を可能にする。
両設定の複雑な分散シフトに適応する2段階のカーネル推定手法を開発した。
論文 参考訳(メタデータ) (2024-03-12T09:32:41Z) - Assessing Uncertainty Estimation Methods for 3D Image Segmentation under
Distribution Shifts [0.36832029288386137]
本稿では, 分布シフトしたサンプルを検出するために, 最先端ベイズ法と非ベイズ法を併用する可能性について検討する。
後部分布における一様あるいは多様の局面を捉えるために, 3つの異なる不確実性推定法を比較した。
その結果, 後方分布におけるマルチモーダル特性に対処できる手法により, より信頼性の高い不確実性推定が可能であることが示唆された。
論文 参考訳(メタデータ) (2024-02-10T12:23:08Z) - Distributionally Adaptive Meta Reinforcement Learning [85.17284589483536]
テスト時間分布シフトの下で適切に振る舞うメタRLアルゴリズムのフレームワークを開発する。
我々の枠組みは、分布のロバスト性に対する適応的なアプローチを中心とし、様々なレベルの分布シフトに対してロバストであるようメタポリスの人口を訓練する。
本研究は, 分散シフト下での後悔を改善するための枠組みを示し, シミュレーションロボティクス問題に対する効果を実証的に示す。
論文 参考訳(メタデータ) (2022-10-06T17:55:09Z) - Transferring Fairness under Distribution Shifts via Fair Consistency
Regularization [15.40257564187799]
本研究では,分散シフトの下でモデルフェアネスを伝達する方法について検討する。
ドメインシフトの下での転送精度の自己学習の成功に触発されて、グループフェアネスの転送に十分な条件が導出される。
論文 参考訳(メタデータ) (2022-06-26T06:19:56Z) - MS Lesion Segmentation: Revisiting Weighting Mechanisms for Federated
Learning [92.91544082745196]
フェデレートラーニング(FL)は医用画像解析に広く用いられている。
FLのパフォーマンスは、多発性硬化症(MS)病変セグメンテーションタスクに制限される。
2つの効果的な再重み付け機構によるFLMS病変分割フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-03T14:06:03Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。